香港の中学生323人が教えてくれたこと
私たちの多くは、最新のテクノロジーを使えば学習がもっと効率的になるのではないかと期待します。特にAIチャットボットのような対話型のツールは、まるで優秀な個人教師が24時間そばにいてくれるような可能性を感じさせます。しかし、実際にそのような技術を使って学ぶとき、私たちの心の中では何が起きているのでしょうか。 The Chinese University of Hong KongのQi Xia、Thomas K. F. Chiu、Ching Sing Chai、そしてThe Ohio State UniversityのKui Xieらが2023年に発表した本研究” The mediating effects of needs satisfaction on the relationships between prior knowledge and self-regulated learning through artificial intelligence chatbot”は、まさにこの問いに取り組んでいます。研究チームは香港の中学3年生323人を対象に、AIチャットボットを使った英語学習において、生徒たちの事前知識(AIについての知識と英語の知識)が自己調整学習にどのように影響するのか、そしてその過程で動機づけがどのような役割を果たすのかを詳しく調べました。 この研究が特に興味深いのは、単にテクノロジーの効果を測るだけでなく、学習者の内面で起きている心理的なプロセスに焦点を当てている点です。研究者たちは自己決定理論(Self-Determination Theory、略してSDT)という心理学の枠組みを使い、人間の動機づけを理解しようとしました。
自己決定理論―人が本当にやる気になるとき
自己決定理論について説明する前に、日常的な例を考えてみましょう。あなたが何か新しいことを学ぼうとするとき、本当に心から「やりたい」と思えるのはどんなときでしょうか。おそらく、自分で選んだと感じられるとき、うまくできそうだと思えるとき、そして誰かとつながっている感覚があるとき、ではないでしょうか。 自己決定理論は、まさにこの直感を理論化したものです。Ryan and Deciという二人の研究者が提唱したこの理論によれば、人間には3つの基本的な心理的欲求があります。1つ目は「自律性」―自分で選択し、コントロールできているという感覚です。2つ目は「有能感」―自分にはできるという自信や達成感です。そして3つ目は「関係性」―他者とつながっている、大切にされているという感覚です。 この3つの欲求が満たされると、人は自然とやる気が湧いてきます。逆に、どれか一つでも満たされないと、モチベーションは下がってしまいます。たとえば、あなたが誰かに強制されて何かをやらされている感じがすれば(自律性が満たされない)、どんなに上手にできても、本当の意味での満足感は得られないでしょう。
自己調整学習―自分で自分を導く力
もう一つ、この研究で重要な概念が「自己調整学習」です。これは簡単に言えば、自分で自分の学習を管理する能力のことです。 たとえば、テスト勉強をするとき、優秀な学生は何をするでしょうか。まず目標を立て、計画を作り、実際に勉強を始めます。勉強しながら、理解できていない部分はないか自分で確認し、必要に応じて別のアプローチを試します。そして終わった後には、何がうまくいって何がうまくいかなかったかを振り返ります。 このように、自分で考えて、自分で調整しながら学習を進める―これが自己調整学習です。Zimmermanという研究者の言葉を借りれば、これは単なる能力や技術ではなく、「学習者が自分の精神的能力を学業スキルに変換する自己指導的なプロセス」なのです。 AIチャットボットのような技術を使って一人で学ぶ場合、この自己調整学習の能力が特に重要になります。なぜなら、先生が常に見守ってくれるわけではないからです。自分で目標を設定し、自分で進捗を確認し、自分で問題を解決していく必要があります。
研究の設計―実際に何を調べたのか
研究チームは、香港の3つの中学校から12歳から14歳の生徒323人を集めました。生徒たちは全員、英語を第二言語として学んでいます。研究を始める前に、生徒たちはAIの基礎について学ぶ授業を受けていました。その内容は、AIとは何か、AIは常に期待通りに機能するか、ビッグデータ、機械学習の基本モデル、モデルの訓練とテストなど、かなり本格的なものでした。 その後、生徒たちは英語とAIに関する20分間のテストを受けました。英語のテストでは、たとえば「レストランで店員に挨拶する」「映画館でチケットを買う」といった場面で使う質問文を書く問題が出されました。AIのテストでは、「AIとは何か」「どれがAIの応用例か」「AIのバイアスは何によって引き起こされるか」といった基本的な知識が問われました。 そして本番です。生徒たちは5日間、AIチャットボットを使って英語を学びました。使用されたチャットボットは、教師たちが複数のアプリを試した中から選ばれたもので、様々な場面(レストラン、ホテル、チケット購入、会話、買い物、会議、レンタカーなど)での英語会話を練習できるようになっていました。 このチャットボットの面白いところは、学習者に多くの選択肢を与えている点です。生徒たちは、チャットボットが提案する返答を選ぶこともできれば、自分でタイピングしたり、声に出して話したりすることもできました。また、質問や返答の音声を聞いたり、中国語の翻訳を読んだりすることもできました。つまり、生徒たちは自分の好きな方法で学習を進められたのです。 5日間の学習が終わった後、生徒たちは20分間のアンケートに答えました。このアンケートでは、自律性、有能感、関係性の充足度、そして自己調整学習の程度を測る質問が含まれていました。
驚くべき発見―英語力は大事、でもAIの知識は?
研究の結果は、いくつかの点で予想外のものでした。まず、英語の知識は直接的に自己調整学習に影響を与えていました。つまり、英語が得意な生徒ほど、チャットボットを使って自分で学習を調整する能力が高かったのです。これは直感的にも理解できます。英語がある程度できる生徒は、チャットボットの質問を理解し、適切な返答を考え、フィードバックを解釈することができます。 しかし、驚いたことに、AIに関する知識は直接的には自己調整学習に影響を与えていませんでした。これは研究者たちの予想に反する結果でした。なぜなら、テクノロジーの受容に関する多くの研究(たとえば、Technology Acceptance Modelと呼ばれる有名な理論)では、技術に関する知識や自信が、その技術を使う意欲に影響すると考えられているからです。 研究者たちはこの結果について、いくつかの説明を提案しています。一つは、AIチャットボットを使った学習では、AIの仕組みを理解することよりも、学習する内容(この場合は英語)の知識の方がはるかに重要だということです。考えてみれば、私たちがスマートフォンを使うとき、その内部の仕組みを知らなくても問題なく使えます。同じように、生徒たちはAIがどのように動いているかを詳しく知らなくても、チャットボットと会話することはできます。 もう一つの説明は、このチャットボットが比較的使いやすく設計されていたため、高度な技術知識を必要としなかったということです。チャットボットは生徒に質問をし、生徒が困っていると優しく誘導してくれます。このような設計により、AIの知識がなくても技術的な問題に直面することが少なかったのかもしれません。
動機づけの役割―何が生徒をやる気にさせたのか
研究のもう一つの重要な発見は、動機づけに関するものでした。具体的には、自律性と有能感の充足が、英語知識とAI知識の両方から自己調整学習への「橋渡し」の役割を果たしていたのです。 これを日常的な言葉で説明しましょう。英語ができる生徒は、チャットボットとの会話で「自分で選択できている」と感じ(自律性)、「うまくやれている」と感じました(有能感)。そしてこの感覚が、彼らの自己調整学習を促進したのです。同様に、AIの知識がある生徒も、チャットボットの仕組みを理解しているために、より主体的に学習を進められると感じ(自律性)、技術をうまく使いこなせていると感じました(有能感)。 興味深いことに、関係性の充足は自己調整学習を予測しませんでした。つまり、チャットボットとのつながりを感じることは、生徒が自分で学習を調整する能力にはあまり影響しなかったのです。 研究者たちは、この結果について深く考察しています。自己調整学習は本質的に認知的なプロセスです。目標を設定し、戦略を選び、進捗を監視し、必要に応じて調整する―これらはすべて頭を使う活動です。一方、関係性は感情的な要素が強い概念です。 もしかすると、チャットボットとの学習は、人間の教師や友達との学習とは根本的に異なるのかもしれません。Lee(2004)という研究者の「心の理論」によれば、人間は社会的な情報を、それがAIから来ようと人間から来ようと同じように処理します。しかし、本当に感情的なつながりを感じるかどうかは別問題です。 ここで思い出すのは、私たちがスマートスピーカーに話しかけるときのことです。便利だと思い、使いこなせていると感じることはあっても、本当に「つながっている」と感じるでしょうか。おそらく、ほとんどの人はそうではないでしょう。同じように、中学生たちもチャットボットを有用なツールとは感じても、感情的なつながりは感じなかったのかもしれません。
英語力の低い生徒への懸念―テクノロジーは万能ではない
研究の実践的な含意の中で、特に重要なのは、現在のチャットボット技術が英語力の低い生徒には適していない可能性があるという指摘です。 研究者たちは、英語がそれほど得意でない生徒は、チャットボットとのやり取りに苦労したと考えています。チャットボットの質問を理解することが難しく、適切な返答を考えることができず、フィードバックの意味も十分に理解できなかったでしょう。さらに、Adamopoulou and Moussiades(2020)の研究が指摘するように、現在のチャットボットは複雑な表現を理解するのが苦手です。英語力の低い生徒が何か言おうとしても、チャットボットが適切に応答できないことがあるのです。 Winne and Hadwinの自己調整学習モデルでは、学習は4つの段階を経ると考えられています。第1段階は課題の定義、第2段階は目標と計画の設定、第3段階は学習戦略の実行、第4段階は適応です。事前知識の豊富な生徒と乏しい生徒では、各段階での情報処理が異なります。 たとえば、英語が得意な生徒は、第2段階で適切な小目標を設定できますが、英語が苦手な生徒は何を目指せばいいのかさえわからないかもしれません。第3段階では、得意な生徒はより洗練された表現を使えますが、苦手な生徒は単純で冗長な言葉しか使えません。そして第4段階では、得意な生徒は学習を振り返り、次につなげることができますが、苦手な生徒は有意義な振り返りができないかもしれません。 このような状況では、英語力の低い生徒はチャットボットとのやり取りで挫折感を味わい、学習を続けるモチベーションを失ってしまう可能性があります。
教師への提案―チャットボットをどう使うべきか
これらの発見を踏まえて、研究者たちは教育実践者に対していくつかの具体的な提案をしています。 最も重要なのは、チャットボットを知識の「探索」ではなく「定着」のために使うべきだという点です。つまり、生徒が新しい英語表現を初めて学ぶときにチャットボットを使うのではなく、すでに授業で学んだ表現を練習し、定着させるために使うべきだということです。 これは理にかなっています。先ほど述べたように、英語力の低い生徒はチャットボットとのやり取りに苦労します。しかし、もし授業ですでに基本的な表現を学んでいれば、チャットボットはそれを練習する場として機能できます。レストランでの注文の仕方を授業で学んだ後、チャットボットと何度も練習することで、その表現を自分のものにできるのです。 二つ目の提案は、生徒の自律性と有能感を支援することです。研究結果は、これら二つの欲求の充足が自己調整学習を直接予測することを示しました。教師は、生徒が自分で選択できる余地を残しつつ、同時に成功体験を積めるように支援する必要があります。 たとえば、Hartnett(2015)が提案するように、教師は段階的なガイドラインやサンプルのフレーズ、文章、質問を提供できます。これにより、生徒は自分でやっているという感覚を保ちながらも、成功する可能性を高められます。具体的には、チャットボットを使う前に、いくつかの会話例を見せて、生徒が自分の入力やアイデアを考えるための手がかりを与えるのです。
研究の限界と今後の方向性
優れた研究者は、自分の研究の限界を率直に認めます。この研究にも、いくつかの制約があります。 まず、この研究は量的なアプローチ(アンケートとテスト)に基づいています。統計的な関係性は明らかにできますが、生徒たちが実際にどのような経験をしたのか、どのような困難に直面したのかという詳細は見えません。研究者たちは、質的なアプローチ(インタビューや観察など)を組み合わせることで、より深い理解が得られると指摘しています。 二つ目は、参加者が香港の中学生に限られていることです。彼らの母語である中国語は、文字ベースの言語です。研究者たちは、タイ語のような非文字ベースの言語を母語とする学習者で研究を行えば、異なる結果が得られるかもしれないと述べています。 三つ目は、研究デザインに関するものです。この研究は構造方程式モデリングという統計手法を使っていますが、因果関係を確定するには、介入研究や実験研究が必要です。 これらの限界を認めつつ、研究者たちは今後の研究の方向性を示しています。特に重要なのは、AIの人間らしい特性(会話能力など)が人間の認知プロセスにどのように影響するかをさらに探究することです。また、AI技術を使った自己調整学習の予測因子をより包括的に特定することも課題です。
より広い文脈―AI教育研究の現状
この研究を理解するには、AI教育研究の現状を知ることも重要です。研究者たちが指摘するように、AI教育に関する研究の多くは、システムやアプリケーションの開発に焦点を当てています。実際、Song and Wang(2020)やZawacki-Richter et al.(2019)のレビュー研究によれば、学習者の視点からAI技術を研究したものは比較的少ないのです。 つまり、「どうやってAIを作るか」については多くの研究があるのに、「学習者がAIをどう使うか」「AIが学習者にどう影響するか」についての研究は少ないということです。この研究は、そのギャップを埋める重要な一歩と言えます。 また、自己決定理論を用いたテクノロジー研究の多くは、学習管理システム(LMS)やゲームなど、特定の教科に限定されない技術を対象としてきました。この研究が英語学習という特定の教科に焦点を当て、しかもAIチャットボットという領域特化型の技術を扱っている点は、新しい視点を提供しています。
開発者への示唆―より良いチャットボットを作るために
研究者たちは、教育者だけでなく、AI技術の開発者にも重要なメッセージを送っています。 現在のチャットボット技術は、英語力の低い若い学習者には十分に対応できていません。これらの生徒は、何を質問すればいいのかわからず、意味のない入力をしてしまうことがあります。開発者は、より幅広い能力レベルの学習者からデータを集める必要があります。 さらに、Chiu and Mok(2017)が示唆するように、学習者の専門知識レベル(学力や認知能力)を特定し、それに応じて会話を調整する仕組みが必要です。たとえば、英語力の低い生徒に対しては、より簡単な質問から始め、多くのヒントを提供し、段階的に難易度を上げていくような適応的なシステムが理想的です。
理論的貢献―学習者受容研究の新展開
この研究の理論的貢献も見過ごせません。研究者たちは、テクノロジー受容研究において、事前知識を「教科知識」と「技術知識」に区別することの重要性を示しました。 従来のテクノロジー受容モデル(TAM)の多くは、コンピュータの自己効力感やデジタルリテラシーといった技術的知識が、技術を使う動機に影響すると考えてきました。しかし、この研究は、領域特化型のテクノロジー(英語学習のためのチャットボット)では、教科知識(英語力)の方が重要である可能性を示しています。 これは重要な発見です。なぜなら、教育テクノロジーを評価したり選択したりする際に、生徒の技術スキルだけでなく、教科の知識レベルも考慮する必要があることを示唆しているからです。
実践への架け橋―専門性開発の必要性
最後に、研究者たちは学校のリーダーや教員養成者に対して、AI技術に関する専門性開発の重要性を強調しています。 AI技術は依然として新しく、多くの教師にとって挑戦的です。Chiu et al.(2022)の研究が示すように、教師自身がAI技術の可能性と限界を理解していなければ、効果的に活用することはできません。 この研究の発見―生徒の事前知識がチャットボットを使った自己調整学習の効果を決定し、自律性と有能感の充足が重要な媒介変数となる―は、教師研修プログラムに組み込むべき重要な内容です。教師がこれらの原理を理解すれば、チャットボットをいつ、どのように、どの生徒に使うべきかについて、より適切な判断ができるようになるでしょう。
おわりに―テクノロジーと学習の複雑な関係
この研究が私たちに教えてくれるのは、教育テクノロジーの効果は決して単純ではないということです。最新のAIチャットボットを導入すれば自動的に学習が改善されるわけではありません。学習者の既存の知識、動機づけ、心理的欲求の充足など、多くの要因が複雑に絡み合っているのです。 研究者たちが示したように、チャットボットは万能薬ではありません。英語力の高い生徒にとっては有用な練習ツールとなり得ますが、英語力の低い生徒にとっては挫折の原因となる可能性もあります。教育者は、テクノロジーを導入する際に、このような複雑さを理解し、すべての生徒のニーズに応えられるよう配慮する必要があります。 また、この研究は、自己調整学習が主に認知的なプロセスであり、自律性と有能感の充足が特に重要であることを示しました。テクノロジーを設計する際には、学習者が自分で選択できる余地を残しつつ、成功体験を積めるように支援することが重要です。 Qi Xiaら4人の研究者が行ったこの研究は、323人の中学生という限られたサンプルに基づいていますが、AI時代の教育について考える上で重要な視点を提供しています。テクノロジーと学習者の相互作用を理解することは、より効果的な教育を実現するための第一歩なのです。 今後、さらに多様な文脈での研究が蓄積され、AIを活用した教育についての理解が深まっていくことが期待されます。そして何より重要なのは、研究者、教育者、技術開発者が協力して、すべての学習者にとって有益な教育環境を創造していくことでしょう。テクノロジーは道具に過ぎません。それをどう使うかは、結局のところ、人間である私たちの知恵と配慮にかかっているのです。
Xia, Q., Chiu, T. K. F., Chai, C. S., & Xie, K. (2023). The mediating effects of needs satisfaction on the relationships between prior knowledge and self-regulated learning through artificial intelligence chatbot. British Journal of Educational Technology, 54(4), 967–986. https://doi.org/10.1111/bjet.13305