LLMからAGIへ

最近のAI、特にChatGPTなどの大規模言語モデル(LLM)の進化には目を見張るものがあります。でも、ふと「これって本当に『知能』なんだろうか?」と疑問に思うことはありませんか。

実のところ、今のLLMがやっているのは「この文字の次には、統計的にこの文字が来やすい」という確率の計算に過ぎません。膨大なデータを学習した結果、驚くほど自然な文章を吐き出しますが、そこに「世界がどう成り立っているか」という本質的な理解はないんです。

「政治家」や「インフルエンサー」としてのLLM

今のLLMを例えるなら、「耳当たりのいい言葉」を並べて相手を納得させる「政治家」や「インフルエンサー」のようなものです。

政治家は耳障りのいい言葉を発して票を稼げば勝ちですし、インフルエンサーはバズる言葉を繋げて注目を集めれば、それがお金になります。そこに100%の真実がある必要はありません。LLMも同じで、もっともらしい言葉を繋ぐスキルには長けていますが、平気で「もっともらしい嘘(ハルシネーション)」をつくのは、彼らが「言葉のつながり」にしか興味がないからです 。

一方で、実際にこの世界を物理的に、あるいは科学的に変えてきたのは、そんな華やかな言葉の裏で、毎日研究室に閉じこもって実験を繰り返す「科学者」たちです。

AI界のゴッドファーザーといわれる、ヤン・ルカンは「LLMをどれだけスケールアップしても、その先に本当の知能(AGI)はない」と言っています 。

彼は新たに「世界モデル(World Model)」という新しいAGIを構築しようとしています 。これは、単にネット上のテキストを読み漁るのではなく、まるで子供が遊びながら世界の物理法則を学ぶように、「何が起これば、次にどうなるか」という因果関係をAIに理解させようとする試みです 。

LLMからAGIへ

これまでのAI研究は、ニューラルネットワークを使った「パターンの学習」が主流でした。しかし、これからはもっと人間の脳の仕組みに近い、記憶や推論、そして「なぜそうなるのか」という因果関係を解き明かす方向へとシフトしつつあります 。

それはまさに、口先だけで世の中を動かそうとする「政治家」の時代から、真理を探究して土台を築く「科学者」の時代への転換期と言えるかもしれません。

「LLMからAGIへ」「政治家から科学者へ」。 AIが「もっともらしい言葉遊び」を卒業し、本当の意味で「世界を理解する知能」へと進化するのか、今後が楽しみです。