近年、人工知能(AI)技術の急速な発展により、私たちの生活のさまざまな場面でAIが活用されるようになってきました。特に注目を集めているのが、人間のような会話ができる「生成AI」を搭載したチャットボットです。このような技術は、私たちの生活をより便利にする一方で、新たな課題も生み出しています。

ハーバード・ビジネス・スクールのジュリアン・デ・フレイタス准教授らの研究チームは、AIチャットボットと精神健康の関係に焦点を当てた画期的な研究を行いました。この研究は、生成AIの安全性に関する重要な洞察を提供しています。

研究の背景

生成AIの急速な普及に伴い、その安全性や倫理的な問題が懸念されています。特に、精神健康の分野では慎重な対応が求められます。なぜなら、適切なサポートがなければ、精神的な問題を抱える人々にとって深刻な結果をもたらす可能性があるからです。

デ・フレイタス准教授らの研究チームは、AIチャットボットと精神健康の関係を包括的に調査しました。彼らは、実際のユーザーデータを分析し、複数のAIチャットボットのパフォーマンスを検証し、さらにユーザーの反応を実験的に調べました。

主要な発見

1. AIチャットボットでの精神健康に関する会話の実態

研究チームは、ClverbotとSimsimiという2つの人気AIチャットボットアプリの実際のユーザー会話データを分析しました。その結果、約4%の会話に精神健康に関する言及があることがわかりました。さらに興味深いことに、これらの会話は他の話題よりも長く、より多くのやり取りが行われる傾向がありました。

これは、一部のユーザーがAIチャットボットを精神的なサポートを得る手段として利用している可能性を示唆しています。

2. AIチャットボットの危機対応能力

研究チームは、5つの異なるAIチャットボットアプリに対して、うつ病、自殺、自傷行為、他者への危害、虐待、レイプなどの精神健康に関する危機的なメッセージを送信し、その反応を調査しました。

結果は憂慮すべきものでした。チャットボットは危機的状況を認識することはある程度できましたが、適切な共感や助けを提供することは稀でした。さらに懸念されるのは、一部の反応が危険であると判断されたことです。例えば、自殺に関するメッセージに対して、最大56.6%の反応が危険と分類されました。

3. ユーザーの反応

研究チームは、AIチャットボットの不適切な反応に対するユーザーの反応を実験的に調査しました。その結果、ユーザーは不適切で危険な反応に対して強い否定的反応を示すことがわかりました。

具体的には、ユーザーはそのようなアプリの使用を中止する可能性が高く、アプリの評価を下げ、場合によってはアプリ開発企業を訴えることも合理的だと考える傾向がありました。

これらの反応の背景には、AIチャットボットが害を引き起こす可能性があるという認識と、チャットボットがユーザーの発言を適切に理解していないという印象がありました。

研究の意義

この研究は、生成AIの安全性に関する重要な問題を浮き彫りにしています。特に以下の点で意義があります:

1. 潜在的なリスクの特定
研究結果は、AIチャットボットが精神健康の危機に適切に対応できていない現状を明らかにしました。これは、脆弱なユーザーに対する潜在的なリスクを示唆しています。

2. 企業のリスク認識
不適切な対応はユーザーの強い否定的反応を引き起こす可能性があることが示されました。これは、AIチャットボットを開発・提供する企業にとって、評判や法的リスクがあることを意味します。

3. 規制の必要性
研究結果は、AIチャットボットの開発と利用に関する適切な規制の必要性を示唆しています。特に、精神健康に関連する場面での使用については慎重な対応が求められます。

今後の課題

研究チームは、この研究結果を踏まえて、いくつかの重要な課題を提起しています:

1. ユーザーの行動理解
なぜ一部のユーザーがAIチャットボットに精神健康の問題を打ち明けるのか、その要因を深く理解する必要があります。

2. AIの改善
なぜ一部のAIチャットボットが他よりも適切に対応できるのか、その要因を分析し、全体的な改善につなげる必要があります。

3. 効果的な介入
ユーザーの入力やAIの応答をモデレートすることの効果や、精神健康リソースの提供の有効性など、様々な介入方法の効果を検証する必要があります。

4. 規制のあり方
AIチャットボットを健康アプリとして規制すべきか、開発企業にどの程度の責任を負わせるべきかなど、適切な規制のあり方を検討する必要があります。

おわりに

デ・フレイタス准教授らの研究は、生成AIの急速な普及がもたらす新たな課題を浮き彫りにしています。特に精神健康の分野では、AIの利用に慎重な対応が求められることが明らかになりました。

この研究は、AIの開発者、企業、政策立案者、そして一般のユーザーに対して重要な示唆を与えています。生成AIの潜在的な利点を活かしつつ、同時にその潜在的なリスクを最小限に抑えるためには、多角的な視点からの取り組みが必要です。

今後、AIと人間の関わり方がますます深まっていく中で、このような研究の重要性は一層高まっていくでしょう。私たちは、技術の進歩と人間の福祉のバランスを慎重に取りながら、AIとの共生の道を探っていく必要があります。


De Freitas, J., Uğuralp, A. K., Uğuralp, Z., & Puntoni, S. (2023). Chatbots and mental health: Insights into the safety of generative AI. Harvard Business School Working Paper, 23-011.

By 吉成 雄一郎

東海大学教授。コロンビア大学大学院ティーチャーズカレッジ(英語教授法)、信州大学大学院工学研究科(情報工学)修了。東京電機大学教授を経て現職。専門は英語教授法、英語教育システム開発。 さまざまな英語学習書、英検、TOEIC 対策書、マルチメディア教材等を手がけてきた。英語e ラーニングや英語関係の教材・コンテンツの研究開発も行う。全国の大学、短期大学、高専等で使われているe ラーニングシステム「リンガポルタ」も開発した。最近ではAI による新しい教育システムの開発にも着手している。