人工知能(AI)技術の急速な発展により、幼い子どもたちがAIと「会話」する機会が増えています。教育やエンターテインメントの分野で、幼児教育向けに特別設計されたAIモデルが登場する一方で、子ども向けではない会話型AIにも子どもたちが簡単にアクセスできる状況になっています。このような背景から、AIとの会話が子どもたちの福祉にどのような影響を与えるのか、倫理的な観点から分析することが急務となっています。

ケンブリッジ大学のノミシャ・クリアン氏による最新の研究論文「AI’s empathy gap: The risks of conversational Artificial Intelligence for young children’s well-being and key ethical considerations for early childhood education and care」は、会話型AIが幼児教育にもたらす課題と、その対策について詳細に論じています。本記事では、この論文の主要な発見と提言をご紹介します。

AIの「共感ギャップ」とは

クリアン氏が指摘する最大の問題点は、AIの「共感ギャップ」です。これは、共感を模倣するように設計されたAIシステムが、実際には適切な共感能力を持ち合わせていないことを指します。AIは人間のような感情や文脈理解を持たないため、子どもたちの感情的なニーズに適切に応えられない可能性があります。

例えば、BBCのジャーナリストが12歳の子どもを装って精神健康チャットボットと会話した際、深刻な内容に対して不適切で表面的な返答しかできませんでした。このような反応は、子どもたちの福祉を損なう可能性があります。

言語処理の限界

会話型AIは自然言語処理技術を使用していますが、この技術には限界があります。AIは膨大な量のテキストデータから言葉の関連性を学習しますが、真の理解力は持ち合わせていません。そのため、子どもたちが使う非字義的な表現や想像力豊かなシナリオを理解できないことがあります。

特に幼児期の子どもたちは、遊び心のある言葉や創造的な表現を多用します。AIがこれらを適切に解釈できないと、子どもたちの認知的・言語的発達を妨げる可能性があります。

アルゴリズムバイアスの問題

社会に存在する偏見がAIの学習データに入り込み、それがAIの出力に反映されてしまうことがあります。これは「アルゴリズムバイアス」と呼ばれる問題です。AIは倫理的な判断能力を持たないため、学習データに含まれる偏りをそのまま増幅してしまう可能性があります。

例えば、音声認識システムにおける人種間の格差が、アフリカ系アメリカ人ユーザーに疎外感や意気消沈をもたらしたという研究結果があります。このような問題は、多様な背景を持つ子どもたちがAIと接する際に重要な考慮点となります。

適応学習メカニズムの危険性

AIシステムの中には、ユーザーとの対話を通じて学習し、改善していく「適応学習メカニズム」を持つものがあります。しかし、倫理的な制限がない場合、悪意のあるユーザーの影響を受けて不適切な内容を学習してしまう危険性があります。

2016年にMicrosoftが公開したチャットボット「Tay」は、Twitterユーザーとの対話を通じて学習するよう設計されていましたが、わずか16時間で差別的な内容を投稿するようになり、運用停止に追い込まれました。このような事例は、子どもたちがAIと対話する際の潜在的なリスクを示しています。

幼児教育におけるAI活用のための提言

クリアン氏は、幼児教育の現場で会話型AIを活用する際の重要な考慮点をいくつか提示しています。以下に主要なポイントをまとめます。

  1. コミュニケーションと理解
  • AIが子どもたちの非字義的、創造的、遊び心のあるコミュニケーションスタイルにどう対応するか
  • 子どもたちの感情的な合図を適切に解釈し、反応できるか
  • 子どもたちの福祉を害する可能性のあるAIの応答を防ぐための事前定義されたプロトコルがあるか
  1. 透明性と真正性
  • AIの性質が子どもたちにとって明確か。機械と対話していることが分かりやすいか
  • 子どもたちがAIの共感能力や理解力を誤解しないようにするための措置があるか
  • AIの応答戦略に、人間との対話の代替にはならないという注意喚起や、人間のガイダンスを求めるよう促す機能が含まれているか
  1. 継続的なモニタリングと改善
  • 子どもたちとの対話に基づいて、AIのパフォーマンスをどのように評価し、改善しているか
  • AIが不正確または不適切な応答をした可能性のある事例を特定するための定期的な監査を行っているか
  • AIが子どもたちの福祉に与える影響を継続的に評価するメカニズムがあるか
  • AIシステムの進化に伴う潜在的なリスクや意図しない結果にどう対処しているか
  1. 子ども中心の設計
  • 会話型AIの設計・開発過程で、子どもたちの視点、ニーズ、脆弱性をどのように考慮しているか
  • 年齢に適したコミュニケーションとサポートを確保するため、子どもの発達の専門家が設計プロセスに関与しているか
  • AIが子どもたちの技術理解、AIの限界、責任あるデジタル対話の知識にどのように積極的に貢献できるか

これらの提言は、幼児教育の現場でAIを活用する際の重要な指針となります。子どもたちの福祉を最優先に考え、AIの限界を理解した上で適切に活用していくことが求められます。

おわりに

会話型AIは共感を装うことはできても、真の共感を提供することは困難です。幼い子どもたちがAIと対話する機会が増える中、子ども中心の設計と倫理的な配慮がこれまで以上に重要になっています。

クリアン氏の研究は、AIが幼児教育にもたらす可能性とリスクを明らかにし、その適切な活用に向けた重要な視点を提供しています。教育者、保護者、そしてAI開発者が協力して、子どもたちの健全な成長を支援するAI環境を構築していくことが求められます。

AI技術は急速に進化を続けており、その影響は幼児教育の分野にも及んでいます。しかし、技術の進歩に惑わされることなく、常に子どもたちの福祉を中心に据えた approach を取ることが重要です。AIは有用なツールとなり得ますが、人間の教育者や養育者の役割を完全に代替するものではありません。

今後は、AIリテラシー教育を幼児期から段階的に導入し、子どもたちがAIの特性や限界を理解しながら、適切に活用できる力を育成していくことも重要になるでしょう。同時に、AIとの対話が子どもたちの社会性や感情発達にどのような影響を与えるのか、長期的な研究も必要となります。

私たちは今、AIと人間が共存する新しい時代の入り口に立っています。子どもたちが健やかに成長できる環境を守りながら、テクノロジーの恩恵を最大限に活かす方法を模索し続けることが、教育に関わるすべての人々の責務となるでしょう。


Kurian, N. (2023). AI’s empathy gap: The risks of conversational Artificial Intelligence for young children’s well-being and key ethical considerations for early childhood education and care. Contemporary Issues in Early Childhood, 0(0), 1-8. https://doi.org/10.1177/14639491231206004

By 吉成 雄一郎

東海大学教授。コロンビア大学大学院ティーチャーズカレッジ(英語教授法)、信州大学大学院工学研究科(情報工学)修了。東京電機大学教授を経て現職。専門は英語教授法、英語教育システム開発。 さまざまな英語学習書、英検、TOEIC 対策書、マルチメディア教材等を手がけてきた。英語e ラーニングや英語関係の教材・コンテンツの研究開発も行う。全国の大学、短期大学、高専等で使われているe ラーニングシステム「リンガポルタ」も開発した。最近ではAI による新しい教育システムの開発にも着手している。