コラム
2024年06月18日

大規模言語モデルの裏付け理論-大きいモデルほど高性能!?

保険研究部 主席研究員 兼 気候変動リサーチセンター チーフ気候変動アナリスト 兼 ヘルスケアリサーチセンター 主席研究員 篠原 拓也

文字サイズ

AI(人工知能)という言葉が日常で用いられるようになって久しい。総務省の「情報通信白書」によると、現在は第三次人工知能ブームなのだという。
 
このブームは日本では、2000年代に始まっている。ビッグデータと呼ばれる大量のデータを用いることでAI自身が知識を獲得する機械学習が実用化された。さらに、知識などの対象を認識する際に注目すべき特徴を定量的に表すことをAIが自ら行って、知識を習得していくディープラーニング(深層学習)が始まった。
 
そして、2020年代に入り、大規模言語モデル(LLM)が登場した。これは、ディープラーニングの技術をもとに作られた言語モデルで、人間同士が会話をしたりチャットのやり取りをしたりするのに近いような、流暢な言語処理ができることが特徴となっている。そのためには、相手から発せられた言葉(データ)を解釈して、それに応じて話のテーマの予測を行い、適切に応答することが必要となる。OpenAI社により2022年に導入されたChatGPTなどの生成AIの登場につながっている。
 
このLLMは、2020年にジョンズ・ホプキンス大学とOpenAI社の研究者によって公表された一編の論文(*)にもとづいている。今回は、その論文について少し見ていきたい。
 
(*) “Scaling Laws for Neural Language Models” Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, Dario Amodei (arXiv:2001.08361 [cs.LG], https://doi.org/10.48550/arXiv.2001.08361)

◇ 「計算量」、「データ量」、「モデルの大きさ」が大きいほど、自然言語モデルの誤差は小さくなる

まず、論文のタイトルを見ると、“Scaling Laws for Neural Language Models”となっている。「ニューラル言語モデルのスケーリング則」という訳があてはまるだろう。ニューラルは、人間の脳神経網を模したネットワークを指す。スケーリング則というのは、べき乗則とも言われるもので、さまざまな自然現象に見られるものだ。
 
例えば、1992年刊行のベストセラー「ゾウの時間・ネズミの時間」(本川達雄著, 中公新書)によると、「いろいろな哺乳類で体重と時間とを測ってみると、(中略) 時間は体重の1/4乗に比例するのである。(中略) 体重が10倍になると、時間は1.8(101/4)倍になる」とのことだ。こうした生物の体重と時間(たとえば寿命)の関係は、べき乗則の一つといえる。
 
日本語や英語などを用いる自然言語モデルにも、こうしたべき乗則が存在する。「計算量」、「データ量」、「モデルの大きさ」が大きいほど、自然言語モデルの誤差は小さくなる、ということの発見である。それが、この論文のテーマとなっている。
 
論文では、3つのグラフが示されている。厳密な単位や尺度等を省略して、筆者がイメージ化して示すと、つぎのような感じになる。
「計算量」、「データ量」、「モデルの大きさ」のイメージ化
注意が必要なのは、3つのグラフの縦軸と横軸がいずれも対数スケールであることだ。自然言語モデルの誤差は、計算量、データ量、モデルの大きさが大きいほど、べき乗的に小さくなる。つまり、モデルのディープラーニングにおいて、計算量を増やし、学習データを増やし、モデルのパラメータ数を増やすと、モデルは改善されることとなる。

◇ 大きいモデルほど性能がよくなる、との結論は常識を覆すものとなった

少し、この3つのグラフについて考えてみよう。計算量が大きいほど、モデルの性能が高まるというのは納得できる話だろう。たくさん計算するほど、誤差が減るというのは、実感に合っている。
 
データ量が大きいほど、モデルが改善されるというのも理解できる内容だ。ビッグデータなどの大量のデータを用いて学習するほど、誤差が減少するというのは、「まあそうだろう」との納得感がある。
 
問題は、モデルの大きさが大きくなるほど、モデルの性能が高まるという点だ。ここでいうモデルの性能というのは、会話のテーマを“予測”する性能だ。ディープラーニングの際に用いた学習データだけではなく、モデルが見たことのない未知データに対して行う予測の性能だ。
 
従来の考え方では、大きいモデル、つまり大量のパラメータを用いたモデルでは、未知データに対して行う予測の精度は下がってしまうとされてきた。この現象は、「過学習」と言われる。
 
これを人間の勉強に例えれば、試験前の丸暗記に相当する。数学の試験の前日に、問題を解くための定理や技法ではなく、試験範囲の問題と答えをひたすら丸暗記したとする。試験で、暗記したものとまったく同じものが出題されれば解答はできる。だが、数値や条件などを少し変えた問題が出題されたら、お手上げになってしまうだろう。つまり、未知の問題に対応するための応用力がないわけだ。
 
こうした過学習を避けるために、モデルの大きさは適切な規模にすべき、との考え方が従来は一般的であった。しかし、この論文は、こうした常識を覆すものとなった。(なお、このべき乗則の成立にはいくつかの条件が必要とされている。べき乗則は、AIの機械学習全般に当てはまるものではなく、トランスフォーマー構造といわれる言語モデルのディープラーニングを条件としている。)
 
この論文を裏付けとして、OpenAI社のChatGPT、Google社のBard (2024年2月にGeminiに改称)、Meta社のLLamaなど、大手IT企業による生成AIの開発競争が隆盛となっている。

◇ 生成AIはまだ改良の途上 ― さまざまな問題を抱えている

現在は、生成AIの性能向上が日進月歩の勢いで進められている。ただ、ここで忘れてはならないのは、生成AIには、ハルシネーション(幻覚)や、個人情報や機密情報の取り扱いの不備、差別や偏見や攻撃性などの倫理面の問題があることだ。
 
このうち、ハルシネーションとは、生成AIがユーザーの質問に対して、事実とは異なる回答を生成することを指す。その内容がもっともらしいために、ユーザーが回答の真偽を確かめにくい。このため、生成AIの回答を鵜呑みにすると、ユーザーや社会全体に誤解や混乱を巻き起こしてしまう恐れがあるとされる。
 
ハルシネーションが発生する原因として、学習データが古い情報であったり、偏った情報であったりすることや、学習プロセスに問題があったりすることが考えられる。ただ、その改善は簡単ではないとされる。
 
AIが人間社会で重要なツールとなっていくためには、予測や判断の性能を向上させるとともに、これらの問題への対応が欠かせない。

◇ 問題への対応のために “ラベラー” による修正が行われている

現在は、生成AIの応答を矯正する方法として、“ラベラー”と呼ばれる人による修正が行われている。ラベラーは、生成AIの応答の偏見や攻撃性の有無を判断したり、人間としての適切な振舞いに照らして生成AIの応答の評価を行う人だ。一般の人が行うこともあるが、これらに精通した専門家が担うことが多い。生成AIが引き起こす問題への対応には、まだ人の手が多くかかるわけだ。
 
ここからは、筆者の想像する将来の話。多少、妄想も含まれているので、話半分で聞いていただきたい。
 
将来、ラベラーの役割を肩代わりする“ラベラーAI”が開発されるかもしれない。そうなれば、生成AIの改良に加速度がつくこととなろう。
 
生成AI(Generative Artificial Intelligence, GAI)の次に、間もなく登場するものとして、汎用AI(Artificial Gereral Intelligence, AGI)が注目されている。GAIの次に、AGIが登場するという流れだ。略語が似ていて、当初は少し戸惑うかもしれない。
 
汎用AIは、生成AIが進化したもので、さまざまな仕事(タスク)を人間と同等か、それ以上のレベルで実現できる-それが、汎用AIの特徴とされている。AIやロボット工学の専門家からは、汎用AIは、人々にとって、同僚や相談相手のような存在になるだろうと言われている。
 
ここまで考えると、ラベラーAIによる生成AIの応答の矯正は、どのように変化していくのかが気になってくる。やはり矯正は、引き続き人間が行うのか。だがそれでは、いつまでも人の手を離れないことになる。
 
それとも、「ラベラーAIによる生成AIの応答の矯正」を矯正する“ラベラー・ラベラーAI”が開発されるのか。そうなると、ラベラー・ラベラーAIの応答の矯正は、一体誰が行うのか...。
 
このようなとりとめもないことを考えつつ、生成AIの開発や進化に関する日々のニュースを見ていくのも、なかなか面白いと思われるが、いかがだろうか。

(参考文献)
 
“Scaling Laws for Neural Language Models” Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, Dario Amodei (arXiv:2001.08361 [cs.LG], https://doi.org/10.48550/arXiv.2001.08361)
 
「ゾウの時間・ネズミの時間」(本川達雄著, 中公新書, 1992年)
 
「大規模言語モデルは新たな知能か-ChatGPTが変えた世界」(岡野原大輔著, 岩波科学ライブラリー 319, 岩波書店, 2023年)
 
「平成28年 情報通信白書」(総務省)
 
「大規模言語モデル」「ChatGPT」「ハルシネーション」(ナレッジインサイト 用語解説, 野村総合研究所サイト)

(2024年06月18日「研究員の眼」)

Xでシェアする Facebookでシェアする

保険研究部   主席研究員 兼 気候変動リサーチセンター チーフ気候変動アナリスト 兼 ヘルスケアリサーチセンター 主席研究員

篠原 拓也 (しのはら たくや)

研究・専門分野
保険商品・計理、共済計理人・コンサルティング業務

経歴
  • 【職歴】
     1992年 日本生命保険相互会社入社
     2014年 ニッセイ基礎研究所へ

    【加入団体等】
     ・日本アクチュアリー会 正会員

公式SNSアカウント

新着レポートを随時お届け!
日々の情報収集にぜひご活用ください。

週間アクセスランキング

レポート紹介

【大規模言語モデルの裏付け理論-大きいモデルほど高性能!?】【シンクタンク】ニッセイ基礎研究所は、保険・年金・社会保障、経済・金融・不動産、暮らし・高齢社会、経営・ビジネスなどの各専門領域の研究員を抱え、様々な情報提供を行っています。

大規模言語モデルの裏付け理論-大きいモデルほど高性能!?のレポート Topへ