便利?嘘つき? 教育・研究機関における生成AIの利活用。

2023.12.12

ワークワンダース 編集部

民間教育サービスの業界で、生成AIの活用が進みつつあります。
ただし、教育現場での生成AI利用は、AIが誤った回答もすることや、子供がAIの回答を鵜呑みにするのではないかなどの懸念から、日本では文部科学省がガイドラインを定めています。

文部科学省の生成AI活用ガイドライン

文部科学省は教育現場での生成AI利用について

・⼦供がAIの回答を鵜呑みにするのではないか等、懸念も指摘されている。その⼀⽅で、児童⽣徒や教師を含め、社会に急速に普及しつつある現状がある
・今後更なる精度の向上も⾒込まれているが、回答は誤りを含む可能性が常にあり、時には、事実と全く異なる内容や、⽂脈と無関係な内容などが出⼒されることもある(いわゆる幻覚(ハルシネーション=Hallucination))。
・あくまでも「参考の⼀つに過ぎない」ことを⼗分に認識し、最後は⾃分で判断するという基本姿勢が必要
・どのようなアルゴリズムに基づき回答しているかが不明である等の「透明性に関する懸念」、機密情報が漏洩しないか、個⼈情報の不適正な利⽤を⾏っていないか、回答の内容にバイアスがかかっていないか等の「信頼性に関する懸念」

といった特徴を指摘しています*1。その上で、

・活用が適切でないと考える例(メリット・デメリットに関する学習を⼗分に⾏っていない、コンクール作品やレポート・小論文、定期考査や小テストなどで使わせることなど)
・活用が考えられる例(グループの考えをまとめたり、アイデアを出す活動の途中段階、⾃然な英語表現への改善、⽣成AIを⽤いた⾼度なプログラミングなど)

を挙げています*2。
ただ、使い方によっては活用の余地がたくさんあります。

小学生の自由研究を支援

まずベネッセコーポレーションが提供したのが、小学生とその保護者を対象にしたサービス「自由研究お助けAI」です。


ベネッセ「自由研究おたすけAI β版」の画面
(出所:「自由研究のお困りは「自由研究おたすけAI β版」で解決!」ベネッセ教育総合研究所)

特徴のひとつは、保護者のメールアドレスや電話番号でログインしたのち、使用上の注意などをまとめた情報リテラシーに関する動画を親子で視聴するという形式を取っていることです。

そして子供が闇雲に使わないように、質問は1日に10回までしかできず、また、「読書感想文を書いて」という質問には回答しないようにできています*3。

学習履歴や理解度の変化に応じたメッセージを発信

また、学研メソッドはオリジナル学習システム(GDLS)でChatGPTを活用したアドバイス機能のβ版の提供を開始しています*4。
従来からメタバース空間で空間で学習できるオンラインサービス、ライブ授業やデジタル教材を導入していましたが、この学習システムは、生徒の学習履歴や理解度の変化を分析し、それに基づいたメッセージを発信します。

学研メソッドの生成AIアドバイス画面
(出所:「学研オリジナル学習システム(GDLS)でChatGPTを活用し、生徒の学習効果を最大化する個別アドバイスを提供開始」PR TIMES)

学研メソッドはこれまでもAIを活用しており、生徒の正答率に合わせて問題を出題する仕組みを導入していますが、ひとりひとりに合わせたメッセージを生成することで、毎日ログインする習慣を促すことを目指しています。
メッセージがころころ変わるのが楽しいという理由で、1カ月に8000題解く生徒もいる、ということです*5。ここは自然言語処理のなせる業でしょう。

大学教育では別の側面も

上記のような事例は、何かを教えるというよりも、子供に学習のヒントややる気を与える、という上手な生成AIの活用方法だと筆者は考えます。
ただこれが高等教育、とりわけ大学での生成AIの取り扱いとなると話はガラリと変わります。
学術論文に安易に生成AIが使われると、その信憑性を担保できなくなってしまうという問題があるのです。

現在いくつかのAI検出ツールは存在するものの、これらは簡単に騙せてしまうということをベルリンの応用科学大学などの研究者グループが指摘しています。
研究者が対象にした14の検出ツールでは、ツールは人間が書いた文章の識別は得意(平均96%の正確さ)な一方で、AIが生成したテキスト、特に編集された文章を見分けることに関しては、かなり苦戦することがわかりました。

それらのツールは74%の正確さでChatGPTの文章を識別しましたが、ChatGPTが生成した文章に少し手が加えられている場合、正確さは42%にまで下がったといいます*6。
国内ではさまざまな大学が生成AIの利用についてガイドラインや考え方を示しています。どれも生成AIの利用を禁止するものではなく、課題を知った上で上手に活用するよう求めています*7。

「人間中心」のAI利用であること

急速に進化する生成AIの技術や普及について、2023年9月にUNESCOは“Guidance for generative AI in education and research(教育・研究分野における生成AIのガイダンス)”を公表しました*8。おもには、

・「人間中心」のAI活用=人間をAIに置き換えるのではなく、人間の能力を拡張させる
・「データ格差」への警鐘=グローバルサウス(新興国)に多くあるデータが乏しい地域や、グローバルノースの相対的に豊かでない地域に関しては、AIアルゴリズムが適切に働かないことや、そうした地域の人々が十分なデータにアクセスできない「データ貧困」に陥ることへの懸念
・13歳未満の生成AIの利用を制限すべきとの提案だ。主要な生成AIは利用規約に年齢制限が記されている。例えばChatGPTは、13歳未満は使用不可、13~17歳は保護者の同意が必要となっている。

といったポイントがあります。
生成AIが先にありきでの教育ではなく、生成AIとは何か、その危険性とは何かを先に学んだうえで「パートナー」として使いこなすという、「人間中心」の考え方は、早い段階から身につけさせておきたいところです。

 

 

*1、2「初等中等教育段階における生成AIの利用に関する暫定的なガイドライン
*3「ベネッセが生成AIで小学生の自由研究を支援、目指すは親子と「3人での対話」」日経クロステック
*4「学研オリジナル学習システム(GDLS)でChatGPTを活用し、生徒の学習効果を最大化する個別アドバイスを提供開始」PR TIMES
*5「民間教育サービスで進む生成AI活用、先行するベネッセ・学研・ライフイズテック」日経クロステック
*6「「チャットGPT検出」は簡単に騙せる、14ツール調査で判明」MIT Technology Review
*7「大学のChatGPT規則、積極派vs慎重派 注目は武蔵美、近大、東洋」日経クロストレンド
*8「生成AIを教育にどう活用すべきか~各種ガイドライン等から考える可能性と課題~」第一生命経済研究所

著者名 :