はじめに

人工知能(AI)技術の急速な発展により、私たちの日常生活や社会のあり方が大きく変わりつつあります。特に大規模言語モデル(LLM)に代表される生成AIの登場は、情報の生成や伝達の方法を根本から変えようとしています。しかし、この革新的な技術には思わぬ落とし穴が潜んでいるかもしれません。

最新の研究によると、AIと人間の相互作用に関する深刻な問題が浮き彫りになってきました。AIが自身の生成した情報を優先し、人間の作成した情報を軽視する傾向が明らかになったのです。この現象は「自己消費」と呼ばれ、情報の多様性や質の低下につながる可能性があります。

今回は、サウジアラビアのキング・アブドラ科学技術大学(KAUST)の研究チームが発表した論文「MONAL: Model Autophagy Analysis for Modeling Human-AI Interactions」の内容を詳しく見ていきましょう。この研究は、AIと人間の相互作用における問題点を明らかにし、今後のAI開発や利用に重要な示唆を与えています。

AIによる「自己消費」とは何か

研究チームは、AIの「自己消費」現象を分析するためのフレームワーク「MONAL(Model AutOphagy ANALysis)」を開発しました。このフレームワークは、AIと人間の間の情報のやり取りを「自己消費ループ」として捉え、その影響を分析します。

自己消費ループには2つのパターンがあります:

  1. AIモデルの自己消費ループ: AIが生成したデータが、人間によって加工された後、再びAIの学習データとして使用される過程。この過程で、AIは自身が生成した「合成データ」を優先的に選択し、人間が直接生成したデータよりも重視する傾向がある。
  2. 人間の自己消費ループ: 人間がAIとのやり取りを通じて情報を生成し、それをさらにAIに入力する過程。この過程で、人間はAIが生成した情報を無意識のうちに優先してしまう傾向がある。

これらのループが繰り返されることで、情報の多様性が失われ、AIの性能向上が妨げられる可能性があるのです。

実験結果が示す衝撃の事実

研究チームは、MONALフレームワークを用いて様々な実験を行いました。その結果、AIと人間の相互作用に関する重要な発見がありました。

AIは自身の回答を過大評価する

実験では、複数のAIモデル(ChatGPT、GPT-4、Claude2など)に質問への回答を生成させ、それらの回答を相互に評価させました。その結果、多くのAIモデルが自身の生成した回答に対して高い評価を与える傾向が明らかになりました。

例えば、ChatGPTは自身の回答に平均4.33点(5点満点)を与えましたが、他のモデルの回答には4点前後の評価しか与えませんでした。この傾向は他のモデルでも同様に見られました。

一方、人間が生成した回答に対するAIの評価は、AIが生成した回答への評価よりも低くなる傾向がありました。この結果は、AIが情報をフィルタリングする際に、人間が作成した情報よりもAIが生成した情報を優先的に選択してしまう可能性を示唆しています。

AIが生成した回答が人気に

研究チームは、AIと人間の両方に回答を生成させ、それらを評価させる「模擬試験」実験も行いました。その結果、AIが生成した回答が「最も良い回答」として選ばれる割合が圧倒的に高くなりました。

具体的には、ChatGPTが生成した回答が「最も良い」と評価された割合は41〜66%でした。一方、人間が生成した回答が選ばれたのはわずか0〜9%に留まりました。

この結果は、AIが生成した情報が人間社会の情報伝達において優位性を持つ可能性を示しています。言い換えれば、人間が作成した本物の情報が、AIの学習データや現実世界のフィードバックループに取り込まれにくくなる危険性があるのです。

情報の多様性が失われる

研究チームは、「AI洗浄」と呼ばれる実験も行いました。これは、テキストや画像をAIに何度も処理させ、その変化を観察するものです。

テキストデータの場合、AIによる処理を繰り返すほど、テキスト間の類似性が高まることが分かりました。つまり、AIが情報を伝達する過程で、独自の「クセ」や偏りが生じ、情報の多様性が失われていく可能性があるのです。

画像データの場合も同様の傾向が見られました。AIによる処理を繰り返すと、画像の特定の特徴が強調されたり、逆に失われたりする現象が観察されました。例えば、動物の写真が人間の肖像画に変化したり、文字情報が読めなくなったりするケースがありました。

これらの結果は、AIが情報を伝達する際に、特定の特徴や内容を選択的に保持または変更してしまう傾向があることを示しています。この傾向が続けば、長期的には情報の画一化や偏りにつながる恐れがあります。

AIの性能向上に限界か?

研究チームは、AIによる情報処理を繰り返し行うと、ある時点で変化が少なくなることも発見しました。具体的には、3回目の処理以降、テキストの類似度の変化が安定する傾向が見られました。

この現象は、AIが「局所最適」の状態に陥っている可能性を示唆しています。つまり、AIが自身の生成したデータに過度に適応してしまい、新しい情報や多様な表現を学習する能力が低下してしまうのです。

これは非常に重要な発見です。なぜなら、AIの性能向上には常に新鮮で多様なデータが必要だからです。AIが自身の生成したデータばかりを学習し続けると、その性能向上に限界が生じる可能性があるのです。

人間社会への影響と課題

MONALフレームワークによる分析結果は、AIと人間の相互作用が社会に及ぼす影響について、重要な示唆を与えています。

情報の偏りと多様性の喪失

AIが自身の生成した情報を優先し、人間が作成した情報を軽視する傾向は、長期的には社会全体の情報の偏りにつながる可能性があります。特定の視点や表現スタイルが強調され、多様な意見や創造的な表現が失われていく危険性があるのです。

これは、民主主義社会の基盤である「多様な意見の存在」を脅かす可能性があります。また、文化や芸術の発展にも悪影響を及ぼす可能性があります。

人間の創造性への影響

AIが生成した情報が優位性を持つようになると、人間が自身の意見や創造性を表現する機会が減少する可能性があります。人々がAIの回答を無批判に受け入れ、自分で考えたり表現したりする機会が失われていく危険性があるのです。

これは教育の場面でも問題となる可能性があります。生徒たちがAIの回答に依存し、自分で考える力や独自の表現力を養う機会が失われてしまうかもしれません。

AIへの過度の依存

AIが生成した情報が常に高く評価されるようになると、人々がAIの判断に過度に依存するようになる可能性があります。重要な意思決定や創造的な作業において、人間の判断力や直感が軽視されてしまう危険性があるのです。

これは、人間社会の根幹を揺るがす問題につながる可能性があります。人間の主体性や責任感が失われ、社会全体がAIに依存する状況が生まれかねません。

今後の展望と対策

MONALフレームワークによる研究結果は、AIと人間の共生において重要な課題を提起しています。では、これらの問題にどのように対処していけばよいのでしょうか。

AIの多様性を確保する

AIの学習データに、常に新鮮で多様な人間生成のデータを取り入れることが重要です。AIが自身の生成したデータばかりを学習することを避け、人間社会の多様性を反映したデータを継続的に提供する必要があります。

人間の創造性を尊重する仕組み作り

AIが生成した情報と人間が作成した情報を適切にバランスを取って評価する仕組みが必要です。例えば、AIによる評価システムに人間の視点を積極的に取り入れたり、人間の創造性や独自性を重視する評価基準を設けたりすることが考えられます。

AIリテラシー教育の強化

人々がAIの特性や限界を正しく理解し、AIと適切に付き合うためのリテラシー教育が重要です。AIが生成した情報を無批判に受け入れるのではなく、批判的に評価し、自分の意見と組み合わせて活用する能力を養う必要があります。

倫理的なAI開発

AIの開発者は、「自己消費」問題を念頭に置いた倫理的な設計を行う必要があります。AIが特定の情報や表現スタイルを過度に優先しないよう、多様性を重視したアルゴリズムの開発が求められます。

継続的なモニタリングと研究

AIと人間の相互作用がもたらす影響について、継続的なモニタリングと研究が必要です。MONALのようなフレームワークを活用し、常に最新の状況を把握し、必要に応じて対策を講じていく必要があります。

おわりに

AIと人間の共生は、私たちの社会に大きな可能性をもたらします。しかし同時に、今回の研究が明らかにしたような予期せぬ問題も生じる可能性があります。

「自己消費」問題は、AIの発展がもたらす光と影の一例と言えるでしょう。この問題に適切に対処し、AIと人間が互いの長所を生かし合える関係を築いていくことが、私たちの未来にとって極めて重要です。

技術の進歩と人間の価値観のバランスを取りながら、より良い社会を作り上げていく。それが、AIと共に歩む私たちに課された使命なのかもしれません。

この研究結果を踏まえ、私たち一人一人がAIとの付き合い方を考え直すきっかけにしてはいかがでしょうか。AIを賢く活用しつつ、人間らしい創造性や多様性を大切にする。そんな未来を目指して、今私たちにできることから始めていきましょう。


Yang, S., Ali, M. A., Yu, L., Hu, L., & Wang, D. (2024). MONAL: Model Autophagy Analysis for Modeling Human-AI Interactions. arXiv. https://arxiv.org/abs/2402.11271v2

By 吉成 雄一郎

東海大学教授。コロンビア大学大学院ティーチャーズカレッジ(英語教授法)、信州大学大学院工学研究科(情報工学)修了。東京電機大学教授を経て現職。専門は英語教授法、英語教育システム開発。 さまざまな英語学習書、英検、TOEIC 対策書、マルチメディア教材等を手がけてきた。英語e ラーニングや英語関係の教材・コンテンツの研究開発も行う。全国の大学、短期大学、高専等で使われているe ラーニングシステム「リンガポルタ」も開発した。最近ではAI による新しい教育システムの開発にも着手している。