論文の背景と筆者について

この論文”Why and how to embrace AI such as ChatGPT in your academic life”は、香港中文大学深セン校のZhicheng Lin博士によって2023年8月にRoyal Society Open Scienceに発表されたものです。ChatGPTが2022年11月に公開され、わずか2か月で1億人のユーザーを獲得したという衝撃的な普及を見せた直後の時期に執筆されました。当時、学術界ではAIツールの使用をめぐって大きな議論が巻き起こっており、一部の学術誌はAI生成コンテンツを全面的に禁止する方針を打ち出す一方、別の学術誌は透明性を持った使用を求めるなど、対応が分かれていました。 Lin博士は心理学や神経科学の分野で研究を行っており、学術出版における多様性や公平性についても複数の論文を発表しています。この論文は、単なる技術解説ではなく、科学哲学や認識論の観点からAIの学術利用を考察している点に特徴があります。つまり、「AIをどう使うか」という実践的な問いと、「AIが生成したコンテンツをどう評価すべきか」という根本的な問いの両方に取り組んでいるのです。

論文の核心―AIは研究者の仕事をどう変えるのか

Lin博士がこの論文で示そうとしたのは、ChatGPTのような大規模言語モデル(LLM)が研究者にとって単なる便利なツールではなく、研究活動そのものを変える可能性を持つということです。たとえば、私たちが料理をするときに包丁を使うのと、電子レンジを使うのでは、調理のプロセス自体が変わってしまいます。同じように、LLMは文章を書く、コードを生成する、アイデアを出すといった知的作業のやり方を根本から変えうるというわけです。 論文では、LLMの3つの重要な特徴を挙げています。第一に「知的」であること、第二に「多用途」であること、第三に「協働的」であることです。これらを順に見ていきましょう。 まず「知的」という点について、Lin博士はChatGPTがアメリカの医師国家試験で医学部3年生と同等の成績を収めたという事例や、論文の抄録を生成させたところ、人間の査読者の68%しか見抜けなかったという研究結果を紹介しています。ただし、このような「知能」が人間の知能と同じものかという哲学的な問いには答えを出していません。むしろ、実用的な観点から「仕事をこなせるかどうか」が重要だと述べています。これは、たとえば電卓が数学的思考をしているわけではないけれど、計算という仕事は確実にこなすのと似ています。 第二の「多用途」という特徴は、ChatGPTが英語、スペイン語、フランス語といった自然言語だけでなく、Python、JavaScript、Rなどのプログラミング言語も扱えることを指しています。研究者は日々、論文を読み、データを分析し、結果を執筆し、学生に教え、事務作業をこなすという多岐にわたる仕事をしています。一つのツールでこれらすべてを支援できるというのは、まるでスイスアーミーナイフのような便利さです。 第三の「協働的」という点は、ChatGPTが会話を通じてユーザーのフィードバックに応じて回答を修正できることを意味します。たとえば、「もっと簡潔に書いて」「専門家向けにしてください」といった指示に応じて文章を書き直してくれます。これは、優秀な研究助手と一緒に仕事をしているような感覚に近いでしょう。

実践的なガイドとしての価値

この論文の大きな強みの一つは、具体的な使用例を豊富に示している点です。Lin博士は、「Rの講師として振る舞い、基本を教えてください」「以下のデータで一元配置分散分析を行うRコードを書いてください」「この段落をもっと簡潔に書き直してください」といった実際のプロンプト例を提示しています。さらに、オンラインで「生きたリソース」も公開しており、読者が実際に試せるようになっています。

これは、料理本に例えるなら、レシピだけでなく調理のコツや失敗例まで丁寧に説明している親切なガイドブックのようなものです。特に、プロンプト(AIへの指示)の書き方について6つのヒントを提供している点は実用的です。たとえば、「明確で簡潔に書く」「具体的な指示を与える」「フィードバックを重ねて改善する」といった助言は、AI初心者にとって非常に役立ちます。 また、Lin博士は様々なAIツールのリストも提供しています。文章の書き直しに特化したWordtune、コードの自動補完を行うCopilot、論文の説明を簡単にしてくれるExplainPaper、PDFファイルの内容について質問に答えてくれるChatPDFなど、研究の各段階で使えるツールを紹介しています。これは、工具箱の中身を整理して、それぞれの道具の使い道を説明してくれているようなものです。

限界についての誠実な議論

Lin博士が優れているのは、AIの利点を強調するだけでなく、その限界についても率直に議論している点です。最も重要な限界として挙げているのが「ハルシネーション」、つまりAIが自信たっぷりに嘘をつく問題です。ChatGPTは存在しない論文を引用したり、もっともらしい嘘の事実を述べたりすることがあります。これは、知ったかぶりをする人が、本当は知らないのに自信満々に間違った情報を語るのと似ています。 したがって、Lin博士はWikipediaを使うときと同じように、AIの出力を批判的に検証する必要があると強調します。これは当然の助言ですが、2023年の時点でこれを明確に述べていたことは重要です。なぜなら、当時は多くの人がAIの出力を無批判に信じてしまう傾向があったからです。 もう一つの重要な限界は、訓練データのバイアスです。LLMは膨大なテキストデータで訓練されますが、そのデータは完全に中立ではありません。たとえば、インターネット上の英語テキストは西洋の、特にアメリカの視点に偏っている可能性があります。これは、ある国の料理本ばかりで料理を学んだシェフが、他の国の料理については知識が乏しいのと似ています。 Lin博士は科学哲学の「立場認識論」(standpoint epistemology)の観点から、このバイアスの問題を論じています。簡単に言えば、すべての知識は特定の立場や視点から生み出されるものであり、完全に客観的な知識というものは存在しないという考え方です。訓練データのバイアスは、データを作った人々の立場を反映しているわけです。問題は、そのバイアスが偏っており、マイノリティの声が十分に反映されていない可能性があることです。

倫理的使用をめぐる大胆な提言

この論文で最も議論を呼びそうなのは、AIの倫理的使用に関するLin博士の立場です。彼は、AIの使用を透明に開示する限り、その使用範囲や性質を制限する必要はないと主張しています。つまり、「どれだけAIに手伝ってもらったか」ではなく、「AIの使用を正直に報告しているか」が重要だというのです。 この主張は、一見すると過激に聞こえるかもしれません。実際、2023年当時、Scienceファミリーの学術誌はAI生成コンテンツを完全に禁止していました。しかし、Lin博士は認識論的な観点から、コンテンツの価値はその出所ではなく内容そのもので判断されるべきだと論じます。ノーベル賞受賞者が書いた論文も新人研究者が書いた論文も、同じ基準で評価されるべきです。同様に、AIが生成したコンテンツも、それが価値あるものであれば受け入れるべきだというわけです。 これは、たとえば音楽の世界で考えるとわかりやすいかもしれません。現代の音楽制作では、コンピューターによる音の加工や合成が当たり前に使われています。重要なのは、最終的な音楽作品が良いかどうかであって、どれだけコンピューターを使ったかではありません。同じように、研究論文の価値も、最終的な内容の質で判断されるべきだというのがLin博士の主張です。 ただし、Lin博士も無制限にAIを使ってよいと言っているわけではありません。透明性が絶対条件です。Andy Warholの例を引いて、芸術家が他の人や機械に実際の制作を任せながらも、アイデアを提供したことで作品の著作者とされることがあると指摘しています。同様に、研究者がAIを使って論文を書いても、AIの使用を明記すれば問題ないというわけです。

偽研究という深刻な脅威

Lin博士が最も懸念しているのは、AIを悪用した偽の研究論文の増加です。すでに「論文工場」(paper mills)と呼ばれる組織が、捏造されたデータや画像を使った偽論文を作成して販売しており、AIの登場でこれがさらに容易になると警告しています。これは、偽ブランド品を作る工場が、より精巧な偽物を大量生産できるようになるのと似ています。 しかし、Lin博士はこの問題をAIそのもののせいにはしません。むしろ、もし偽の研究が査読を通過してしまうなら、それは査読システム自体に問題があるのだと指摘します。AIは単にその弱点を露呈させただけだというわけです。これは、セキュリティの脆弱性を発見するハッカーのようなものかもしれません。ハッカーが悪いのではなく、脆弱なシステムが問題なのです。 解決策として、Lin博士はオープンサイエンスの実践を提唱しています。具体的には、査読プロセスの公開、データとコードの共有、研究資料の透明化などです。これらは、研究の透明性を高め、偽造を検出しやすくします。たとえば、料理のレシピだけでなく、材料の産地、調理過程の写真、栄養成分まで公開するようなものです。そうすれば、嘘をつくのは難しくなります。

平等性への複雑な影響

AIが研究における平等性に与える影響について、Lin博士は楽観的でも悲観的でもない、バランスの取れた見方を示しています。一方で、AIは不平等を減らす可能性があります。たとえば、英語が母語でない研究者にとって、ChatGPTは強力な編集ツールになります。これまで、英語圏の研究者は言語面で有利でしたが、AIの助けを借りれば、この格差は縮まるかもしれません。これは、自動翻訳ツールが言語の壁を低くしたのと似ています。 しかし同時に、AIは新たな格差を生み出す可能性もあります。Lin博士は個人、グループ、国家レベルでの格差について論じています。個人レベルでは、プログラミングなどの技術をすでに持っている人がAIでさらに能力を伸ばせる一方、そうでない人は取り残されるかもしれません。これは、すでに裕福な人が投資でさらに富を増やすのと似た「富める者はますます富む」現象です。 グループレベルでは、大きな研究チームがAIで生産性を大幅に向上させる一方、小規模チームは相対的に不利になります。Lin博士は数値例を挙げています。2人のチームと10人のチームがあり、その差は8人です。もしAIで各人の生産性が1.5倍になれば、差は12人分に広がります。つまり、既存の格差がAIによって拡大されるわけです。 国家レベルでは、2023年7月の時点でChatGPTが中国本土や香港では使えなかったという事実を指摘しています。また、Google Bardも最初はアメリカとイギリスだけで利用可能でした。さらに、インターネットアクセスの格差や、LLMが言語によって性能が異なることも問題です。これは、新しい医療技術が先進国でしか使えない状況と似ています。

教育への示唆―禁止ではなく統合を

教育分野でのAI利用について、Lin博士は明確な立場を取っています。AIを禁止するのではなく、カリキュラムに統合すべきだというのです。この主張は、構成主義学習理論とVygotskyの最近接発達領域(ZPD)理論という2つの教育理論に基づいています。 構成主義では、学習者は新しい情報を既存の知識と結びつけることで理解を構築します。LLMは膨大な情報と多様な視点を提供するため、学生が能動的に学ぶのを助けます。一方、ZPD理論では、学習者が一人でできることと、助けがあればできることの間に「ゾーン」があり、そこで最も効果的な学習が起こるとされます。教師はLLMを使って学生を導き、徐々に自立させていくことができるというわけです。 これは、子供が自転車に乗ることを学ぶのに似ています。最初は補助輪が必要ですが、徐々に外していきます。AIも同じように、学習の補助として使いながら、最終的には学生が批判的思考力を身につけるためのツールにできるというのです。 Lin博士は、医学教育、プログラミング教育、語学教育でのChatGPTの活用事例も紹介しています。重要なのは、AIの出力を無批判に受け入れるのではなく、その正確性、信頼性、潜在的バイアスを評価する能力を学生に身につけさせることです。

論文の限界と批評的考察

この論文は2023年の早い段階で書かれたという点を考慮する必要があります。当時はまだGPT-4が公開されたばかりで、現在のような多様なAIツールは存在していませんでした。したがって、一部の議論は現在の状況と合わなくなっている可能性があります。 たとえば、Lin博士はAI生成コンテンツの検出が困難だと述べていますが、その後の研究で検出技術も進歩しています(完璧ではありませんが)。また、AIの「知性」についての哲学的議論は、その後のAI研究でさらに深まっています。論文執筆時点では想定できなかった新しい問題も出てきています。 また、Lin博士の「透明性さえあればAIの使用範囲を制限する必要はない」という主張は、学術コミュニティの中でも議論が分かれるでしょう。たとえば、学生が課題でAIを全面的に使うことを許可すべきかという問題では、単に透明性だけでは不十分かもしれません。学習目標が「自分で考える力を養う」ことであれば、AIに頼りすぎることは本来の目的に反します。 平等性の議論も、やや単純化されている感があります。確かに、Lin博士が指摘する個人、グループ、国家レベルの格差は重要ですが、他にも考慮すべき要素があります。たとえば、AIが特定の研究分野を有利にする可能性や、データへのアクセス権を持つ者と持たない者の格差などです。 さらに、Lin博士は科学研究における客観性や偏見の問題を論じていますが、AIが本当に人間のバイアスを減らせるかについては、もっと慎重な検討が必要です。AIは訓練データのバイアスを反映するだけでなく、アルゴリズム自体にもバイアスが埋め込まれる可能性があります。「強い客観性」という理想は魅力的ですが、AIがそれを実現できるかは未知数です。 倫理的な議論では、Lin博士は主に認識論的な観点から論じていますが、社会的、法的、経済的な側面についてはあまり触れていません。たとえば、AIが雇用に与える影響、著作権の問題、AI開発企業の責任などについては、より深い議論が必要でしょう。

実践への示唆と今後の課題

それでも、この論文は2023年という早い段階で、AIと学術研究の関係について包括的な議論を提供した点で価値があります。特に、単なる技術的なハウツーガイドにとどまらず、科学哲学や認識論の観点から問題を考察している点は評価できます。 研究者にとって実践的な価値もあります。具体的なプロンプトの例、ツールのリスト、オンラインリソースへのリンクなど、すぐに使える情報が豊富です。また、「AIを敵視するのではなく、道具として賢く使おう」というメッセージは、当時の過度に警戒的な雰囲気の中で重要でした。 教育者にとっても、AIを禁止するのではなくカリキュラムに統合するという提言は示唆に富んでいます。実際、2023年以降、多くの教育機関がこの方向に舵を切っています。AIは消えてなくなるものではないので、学生にその使い方と限界を教えることは不可欠です。 政策立案者にとっては、平等性への影響についての議論が参考になります。AIが既存の格差を拡大する可能性があるという警告は、デジタルデバイドへの対策の重要性を示しています。特に、発展途上国や資源に乏しい研究機関がAIの恩恵を受けられるような支援策が必要でしょう。 今後の研究課題として、Lin博士が提起した多くの問題についての実証研究が必要です。たとえば、AIを使った研究者と使わない研究者の生産性の違い、AIの使用が研究の質に与える影響、教育現場でのAI統合の効果などを、データに基づいて検証する必要があります。 また、倫理的なガイドラインについても、学術コミュニティ全体での議論が続いています。Lin博士の提案する「透明性」は必要条件ですが、十分条件かどうかは議論の余地があります。分野ごと、目的ごとに異なるガイドラインが必要かもしれません。

まとめとして

この論文は、ChatGPTなどのAIツールが学術研究にもたらす変化の初期段階での重要な貢献です。Lin博士は、AIの可能性と限界の両方を率直に論じ、禁止ではなく賢明な活用を提唱しています。科学哲学の観点から倫理的問題を考察し、平等性や教育への影響についても洞察を提供しています。 ただし、この論文が書かれてから時間が経ち、AI技術も学術界の対応も進化しています。Lin博士の提言の中には、今でも妥当なものもあれば、再考が必要なものもあります。重要なのは、AIと研究の関係について、技術の進歩に合わせて継続的に議論を深めていくことです。 実際のところ、研究者として日々論文を読み、データを分析し、文章を書く私たちにとって、AIは無視できない存在になっています。包丁やワープロと同じように、AIも研究の道具箱に加わったのです。問題は、その道具をどう使いこなし、どのような倫理的枠組みの中で活用するかです。Lin博士のこの論文は、その問いへの初期の、そして今なお価値ある回答の一つだと言えるでしょう。


Lin, Z. (2023). Why and how to embrace AI such as ChatGPT in your academic life. Royal Society Open Science, 10, 230658. https://doi.org/10.1098/rsos.230658

By 吉成 雄一郎

株式会社リンガポルタ代表取締役社長。東京電機大学教授、東海大学教授を経て現職。コロンビア大学大学院ティーチャーズカレッジ(英語教授法)、信州大学大学院工学研究科(情報工学)修了。専門は英語教授法、英語教育システム開発。 さまざまな英語学習書、英検、TOEIC 対策書、マルチメディア教材等を手がけてきた。英語e ラーニングや英語関係の教材・コンテンツの研究開発も行う。全国の大学、短期大学、高専等で使われているe ラーニングシステム「リンガポルタ」も開発した。最近ではAI による新しい教育システムの開発にも着手している。

📖新刊情報|英語教育学海外論文解説: 海外の研究をサクッと解説』が刊行されました!
海外の上位ランクの学術雑誌に掲載された論文の中から、毎月のテーマに合わせて論文を厳選、そのポイントや限界などをわかりやすく解説。最新の研究をサクッと学べる英語教育学の論文解説書です。
 第3号:「英語教育における語彙指導」 ▶第2号:「英語教育と評価を考える」 創刊号:「AIは英語学習を加速するのか」

X
Amazon プライム対象