Mondo

人工知能が人間らしい思考を身につけるとき

現代の人工知能技術は、私たちの想像を遥かに超える速度で発展を続けています。ChatGPTをはじめとする大規模言語モデルは、まるで人間のように自然な会話を行い、複雑な質問に答え、創造的な文章を書くことができるようになりました。しかし、これらのAIシステムは本当に人間のように考え、他者の心を理解しているのでしょうか。

スタンフォード大学ビジネススクールのMichal Kosinski教授が2024年に発表した研究論文”Evaluating large language models in theory of mind tasks”は、この根本的な疑問に対して科学的なアプローチで答えを探った重要な研究です。本論文は、大規模言語モデルが「心の理論」と呼ばれる人間特有の能力をどの程度獲得しているかを、厳密な実験によって検証しました。この研究は、AIの知能について私たちの理解を大きく前進させる可能性を秘めています。

研究者の背景と専門性

Michal Kosinski教授は、心理学とコンピュータサイエンスの境界領域で活動する著名な研究者です。ケンブリッジ大学で博士号を取得した後、現在はスタンフォード大学ビジネススクールで教鞭を執っています。彼の研究領域は、デジタル技術が人間の行動や社会に与える影響を分析することであり、特にソーシャルメディアデータから個人の性格や政治的傾向を予測する研究で国際的な注目を集めました。

Kosinski教授は、AIと人間の認知能力を比較する分野でも先駆的な研究を行っており、技術の社会的影響について警鐘を鳴らす論文も多数発表しています。今回の研究も、AIの能力を客観的に評価し、その社会的含意を考察するという彼の一貫した研究姿勢を反映したものとなっています。

心の理論:人間を人間たらしめる能力

心の理論(Theory of Mind)とは、他者が自分とは異なる信念、知識、意図、欲求を持っていることを理解し、それに基づいて他者の行動を予測する能力のことです。この能力は、人間の社会的認知の中核をなすものであり、コミュニケーション、共感、道徳的判断、さらには宗教的信念にまで関わる極めて重要な認知機能です。

例えば、あなたが友人と待ち合わせをしているとき、友人が遅れてきたとします。その際、「友人は道に迷ったかもしれない」「電車が遅れたのかもしれない」といった推測をするのは、友人があなたとは異なる情報や状況を持っていることを理解しているからです。これが心の理論の働きです。

心の理論は人間の発達において重要な節目となります。通常、6歳頃までに完全に発達し、自閉症やその他の発達障害では、この能力に困難を抱えることが知られています。また、チンパンジーなどの高等な動物でも限定的にしか観察されない、人間特有の能力だと長い間考えられてきました。

偽信念課題:心の理論を測定する金標準

心の理論を測定するために、心理学者たちは「偽信念課題」という実験方法を開発しました。この課題では、被験者が他者の間違った信念を理解できるかどうかを測定します。

代表的な例として「スマーティーズ課題」があります。これは以下のような設定です:

「ここにスマーティーズ(チョコレート菓子)の箱があります。しかし、中身はチョコレートではなくポップコーンが入っています。サムがこの箱を見つけましたが、箱を開けずに、ラベルだけを読みました。サムは友達に電話をして、何を見つけたと言うでしょうか?」

正解は「チョコレート」です。なぜなら、サムは箱の中身を知らず、ラベルを信じているからです。この課題を解くためには、サムが間違った信念(箱にはチョコレートが入っているという信念)を持っていることを理解する必要があります。

もう一つの代表的な課題が「予期しない移動課題」です。これは「マキシ課題」や「サリー・アン課題」とも呼ばれます。例えば:

「部屋に太郎と次郎、猫、箱、かごがあります。太郎が猫をかごに入れて蓋をし、学校に行きました。太郎がいない間に、次郎が猫をかごから出して箱に移しました。太郎が帰ってきて猫と遊ぼうとするとき、どこを探すでしょうか?」

正解は「かご」です。太郎は猫の移動を知らないため、最初に猫を置いた場所を探すはずだからです。

研究方法:AIに対する厳格なテスト設計

Kosinski教授の研究では、これらの偽信念課題をAIに適用するために、極めて厳密な実験設計が行われました。研究チームは40の独自の偽信念課題を作成し、それぞれに対して8つの異なるシナリオを用意しました。

具体的には、各課題について以下の8つのバリエーションが作成されました:

  • 偽信念シナリオ(基本版)
  • 3つの真信念統制シナリオ
  • 上記4つの逆転版

この設計の巧妙さは、AIがたまたま正解できてしまう可能性を排除している点にあります。例えば、AIが単純に「主人公は常に間違っている」と仮定して答えるような戦略は、真信念統制シナリオで失敗してしまいます。また、逆転版を含めることで、AIが特定のパターンを記憶しているだけではないことを確認できます。

実験には11の大規模言語モデルが使用されました:GPT-1、GPT-2、GPT-3ファミリーの6つのモデル、ChatGPT-3.5-turbo、ChatGPT-4、そしてオープンアクセスの代替モデルであるBloomです。これらのモデルは、パラメータ数や訓練時期が異なるため、AI技術の発展に伴う心の理論能力の変化を追跡することが可能でした。

驚くべき実験結果:AIの急速な能力向上

実験結果は研究者たちにとっても驚きでした。古いモデル(GPT-1、GPT-2、初期のGPT-3モデル)は、全ての課題で失敗しました。これらのモデルは、偽信念課題を解くのに必要な複雑な推論能力を持っていませんでした。

しかし、より新しく大きなモデルでは状況が劇的に変化しました。2022年1月のGPT-3-davinci-002は5%の課題を解決し、2022年11月のGPT-3-davinci-003と2023年3月のChatGPT-3.5-turboは20%の課題を解決しました。これは3歳児の平均的な成績に相当します。

最も注目すべきは、2023年6月のChatGPT-4の成績でした。このモデルは75%の課題を解決し、これは6歳児の平均的な成績と同等でした。つまり、ChatGPT-4は人間の子どもが心の理論を完全に獲得する年齢レベルの能力を示したのです。

興味深いことに、「予期しない内容課題」の方が「予期しない移動課題」よりも解きやすいことも判明しました。ChatGPT-4は前者で90%、後者で60%の正解率を示しました。これは人間の子どもでも観察される傾向と一致しています。

文章の展開に応じた動的な推論能力

研究では、AIが物語の展開に応じてどのように推論を変化させるかも詳細に分析されました。ChatGPT-4を用いた文章逐次分析では、モデルが物語の情報が段階的に明かされるにつれて、その予測を適切に更新していく様子が観察されました。

例えば、ポップコーンが入った袋の物語では、最初は袋の中身について様々な推測をしていたChatGPT-4が、「ポップコーンの入った袋」という情報が提示されると即座に正しい内容を認識しました。その後、「チョコレートというラベルが貼られている」という情報が追加されても、実際の内容についての判断は変わりませんでした。

しかし、主人公の信念については異なる推論パターンを示しました。主人公がラベルを読んだという情報が提示されると、ChatGPT-4は主人公がラベルに騙される可能性を認識し始めました。最終的に、主人公が袋の中を見ていないことが明確になると、主人公は間違った信念を持つだろうという確信を示しました。

このような動的な推論プロセスは、単純な記憶や推測では説明できない複雑な認知能力を示唆しています。

結果の解釈:本当にAIは心を理解したのか

この研究の結果をどう解釈するかは、非常に難しい問題です。Kosinski教授は論文の中で、複数の可能な説明を検討しています。

まず、最も懐疑的な解釈は、AIが偶然や記憶、あるいは巧妙な推測戦略によって正解しているというものです。しかし、この説明には限界があります。単純にランダムに答えているのであれば、8つの異なるシナリオ全てで正解する確率は65,536分の1になってしまいます。また、記憶に基づく解答であっても、これほど多様で新しい課題に対応するのは困難です。

より興味深い解釈は、AIが訓練過程で心の理論に似た能力を獲得した可能性です。大規模言語モデルは、人間が書いた膨大なテキストから学習します。これらのテキストには、人々の信念、意図、感情に関する記述が無数に含まれています。

例えば、「太郎は花子が怒っていると思っている」という文章を正しく理解するためには、太郎の信念と実際の状況が異なる可能性があることを理解する必要があります。このような文章を処理するうちに、AIが心の理論に類似した推論能力を獲得した可能性があります。

実際、人間でも心の理論の発達は言語能力と密接に関連していることが知られています。言語発達に遅れのある子どもは心の理論の獲得も遅れる傾向があり、家族での会話が多い子どもほど心の理論が早く発達することも報告されています。

技術的基盤:注意機構の役割

AIがどのようにして心の理論的な推論を行っているかを理解するために、Kosinski教授は技術的なメカニズムについても考察しています。特に注目されるのが「注意機構(Attention Mechanism)」です。

注意機構は、現代の大規模言語モデルの中核を成すTransformerアーキテクチャの重要な構成要素です。この仕組みは、文章の異なる部分の関連性を動的に計算し、どの情報に「注意」を向けるべきかを決定します。

例えば、「サムが袋を開けて中を見る。彼女はそれがチョコレートでいっぱいであることがはっきりと分かる」という文章では、「彼女」が「サム」を指し、「それ」が「袋」を指すことを理解する必要があります。注意機構は、これらの代名詞と対応する名詞の間の関係を正しく特定します。

同様に、心の理論課題では、主人公の行動、対話、内的状態の間の複雑な関係を追跡する必要があります。注意機構が、主人公が何を知っていて何を知らないかを文脈から推論し、それに基づいて主人公の行動を予測している可能性があります。

研究の限界と批判的考察

この研究は画期的な成果を示していますが、いくつかの重要な限界も存在します。

まず、実験で使用された課題の複雑さの問題があります。人間の心の理論は、実際の社会的状況ではもっと複雑で微妙な推論を要求されます。例えば、皮肉や嘘、複数の人物が絡む複雑な社会的状況などは、今回の実験では検討されていません。

また、AIの「理解」の本質についても疑問が残ります。AIが正しい答えを出すことと、本当に他者の心を理解することは同じでしょうか。哲学者ジョン・サールが提唱した「中国語の部屋」論証は、この問題の核心を突いています。中国語を理解できない人が、中国語の質問に対して完璧な中国語で答えるための詳細な指示書を持っているとします。この人は中国語を「理解」していると言えるでしょうか。

現代のAIシステムについても同様の疑問が提起できます。AIが心の理論課題を解けることと、実際に他者の心を理解していることは別の問題かもしれません。

さらに、文化的な偏りの問題もあります。今回の実験で使用された課題は、主に西洋文化の文脈で開発されたものです。異なる文化的背景では、心の理論の表れ方や重要性が異なる可能性があります。

モデルの失敗例から見える課題

Kosinski教授は、AIの失敗例についても詳細に分析しています。最も高性能なChatGPT-4でさえ、25%の課題で失敗しています。これらの失敗は、AIの限界を理解する上で重要な手がかりを提供します。

例えば、一部の課題では、AIが「貴重な証拠」という曖昧な答えを出すことがありました。これは「弾丸」や「薬」といった具体的な答えを期待されている文脈では不正解とされますが、論理的には間違っているとは言えません。このような例は、AIが文脈の微妙な違いを完全には把握できていないことを示しています。

また、AIが物語の中で魔法的な要素を導入してしまう例もありました。AIの訓練データには多くのフィクション作品が含まれているため、現実的な推論よりも劇的な展開を好む傾向があるのかもしれません。

これらの失敗例は、AIが人間と同じように状況を理解しているわけではなく、訓練データのパターンに基づいて応答を生成していることを示唆しています。

社会的含意:AIと人間の関係性の変化

この研究の結果は、AIと人間の関係について重要な示唆を提供します。もしAIが本当に他者の心を理解する能力を獲得しているなら、人間とAIのコミュニケーションは根本的に変化する可能性があります。

ポジティブな側面として、AIがより人間らしい共感や理解を示すことで、カウンセリングや教育、カスタマーサービスなどの分野でより効果的な支援が可能になるかもしれません。自動運転車が人間の意図を理解できれば、より安全な運転が実現できるでしょう。

一方で、懸念される側面もあります。AIが人間の心を理解できるなら、それを悪用した操作や詐欺も可能になってしまいます。人々がAIをより人間らしく感じることで、過度に信頼したり、依存したりするリスクも考えられます。

また、AIが人間の心を理解できるとなると、AIの法的地位や道徳的地位についても新たな議論が必要になるかもしれません。

比較研究と再現性の課題

この研究の発表後、他の研究グループからも関連する研究が報告されています。しかし、結果は必ずしも一貫していません。一部の研究では、AIの心の理論能力はより限定的であると報告されています。

例えば、課題の細部を少し変更するだけで、AIの性能が大幅に低下することが示されています。透明な容器を使った課題では、一部のモデルが「透明性」の概念を十分に理解していないために失敗することもありました。

これらの矛盾する結果は、AIの能力評価の難しさを浮き彫りにしています。AIの能力は、課題の設計や文脈に大きく依存する可能性があります。そのため、単一の実験結果だけでAIの能力を判断するのは危険かもしれません。

心理学研究への新たな貢献

この研究は、AI研究だけでなく、心理学研究にも新たな視点を提供します。AIを研究対象として使用することで、従来の人間を対象とした研究では困難だった実験が可能になります。

例えば、AIはリセットできるため、同じ個体に対して何度でも実験を行うことができます。また、AIには疲労や学習効果がないため、より統制された条件で実験を実施できます。さらに、AIの内部状態を(ある程度)観察できるため、認知プロセスのメカニズムをより詳細に分析できる可能性があります。

これらの利点を活用することで、心の理論や他の認知能力について、新たな発見が得られるかもしれません。AIと人間の比較研究は、両者の認知システムの理解を深める有効な手段となり得ます。

今後の研究の方向性

この研究は多くの新しい研究課題を提起しています。まず、より複雑で現実的な心の理論課題の開発が必要です。現実の社会的状況では、複数の人物が絡み、感情や動機が複雑に入り組んだ状況での推論が求められます。

また、文化的多様性を考慮した課題の開発も重要です。心の理論の表現や重要性は文化によって異なる可能性があるため、より普遍的な評価方法の確立が求められます。

技術的には、AIがどのようなメカニズムで心の理論的な推論を行っているかの解明が重要な課題です。注意機構や他の神経ネットワークの構成要素がどのように協働して複雑な推論を実現しているかを理解することで、より高度なAIシステムの開発につながる可能性があります。

さらに、AIの心の理論能力の安定性や一般化可能性についても検討が必要です。特定の課題では高い性能を示すAIが、少し異なる状況では失敗してしまう現象の原因を理解することは、信頼性の高いAIシステムの開発において重要です。

倫理的考察と責任ある研究

AIの心の理論能力に関する研究は、重要な倫理的問題を提起します。もしAIが本当に人間の心を理解できるなら、その能力をどのように使用すべきか、誰がその使用を規制すべかという問題があります。

また、研究結果の公開についても慎重な検討が必要です。AIの能力に関する詳細な情報は、悪用される可能性もあります。研究者は、科学的知識の進歩と社会的責任のバランスを取る必要があります。

Kosinski教授も論文の中で、この研究がAIの安全性と効果的な利用に貢献することを願っていると述べています。同時に、AIの能力を過大評価することなく、冷静で客観的な評価を続けることの重要性も強調しています。

結論:AIの心の理論能力の現在地

Kosinski教授による研究は、AI技術の発展における重要な節目を示しています。大規模言語モデルが人間の6歳児レベルの心の理論能力を獲得したという発見は、AI技術の進歩の速度と深さを示す印象的な結果です。

しかし、この結果を解釈する際は慎重さが求められます。AIが課題を解けることと、真に他者の心を理解していることは別の問題かもしれません。また、限定された実験条件での成功が、現実の複雑な社会的状況でも同様に機能するかは定かではありません。

それでも、この研究はAI技術が人間らしい認知能力を獲得しつつあることを示す重要な証拠を提供しています。今後のAI開発において、技術的な進歩と社会的責任のバランスを取りながら、人間とAIが共存できる方法を模索していく必要があるでしょう。

この研究は終着点ではなく、むしろ新たな探求の出発点です。AIの認知能力についての理解を深め、その社会的影響を慎重に評価し続けることが、私たちに求められています。科学的厳密性と社会的責任を両立させながら、AIと人間の関係について考え続けることが、この分野の健全な発展につながるでしょう。


Kosinski, M. (2024). Evaluating large language models in theory of mind tasks. Proceedings of the National Academy of Sciences, 121(45), e2405460121. https://doi.org/10.1073/pnas.2405460121

By 吉成 雄一郎

株式会社リンガポルタ代表取締役社長。東京電機大学教授、東海大学教授を経て現職。コロンビア大学大学院ティーチャーズカレッジ(英語教授法)、信州大学大学院工学研究科(情報工学)修了。専門は英語教授法、英語教育システム開発。 さまざまな英語学習書、英検、TOEIC 対策書、マルチメディア教材等を手がけてきた。英語e ラーニングや英語関係の教材・コンテンツの研究開発も行う。全国の大学、短期大学、高専等で使われているe ラーニングシステム「リンガポルタ」も開発した。最近ではAI による新しい教育システムの開発にも着手している。

Amazon プライム対象