最新AI論文をキャッチアップ

Googleが開発した自然言語処理の看板技術BERTの研究はどこまで進んでいる? BERTologyの最前線

Googleが開発した自然言語処理の看板技術BERTの研究はどこまで進んでいる? BERTologyの最前線

natural language processing

3つの要点
✔️ 自然言語処理の中心的存在であるBERTのサーベイ論文の紹介
✔️ BERTに関する研究の方向性、課題を2回にわけて網羅的に説明

✔️ 今回はBERTが何を捉えているかを調べた研究を紹介

A Primer in BERTology: What we know about how BERT works
written by Anna RogersOlga KovalevaAnna Rumshisky
(Submitted on 27 Feb 2020)

Comments: Published by arXiv
Subjects: Commputation and Language(cs.CL)

 はじめに

近年の自然言語処理技術の発展を考える上でBERTと呼ばれるtransformerベースの事前学習言語モデルの存在は欠かすことができません。2018年に発表された当時、自然言語理解の総合的な能力を測るベンチマークであるGLUEタスクにおいて当時の最高精度であったOpenAI GPTのスコアを7%も向上し、驚きをもたらしました。それ以降、BERTの汎用的で高い言語処理能力は様々なタスクにおけるベンチマークとなり中心的な存在となりました。今回はそのBERTに関する幅広い研究を紹介し、どのような課題があるのかを見ていきます。

続きを読むには

(6480文字画像12枚)

AI-SCHOLARに
登録いただく必要があります。

1分で無料で簡単登録する

または
  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!

記事の内容等について改善箇所などございましたら、
お問い合わせフォームよりAI-SCHOLAR編集部の方にご連絡を頂けますと幸いです。
どうぞよろしくお願いします。

お問い合わせする