AI教育「推進vs拒絶」は幻想──教師たちの第三の選択

AI教育「推進vs拒絶」は幻想──教師たちの第三の選択

生成AIは教育を変える。そう叫ばれて久しいが、教室で何が起きているかを知る人は少ない。


二項対立という幻想

AIを受け入れるか、時代に取り残されるか」──教育とAIをめぐる議論は、しばしばこの単純な構図に落とし込まれる。テクノロジー推進派とラッダイト(機械打ちこわし運動)の対立だ。

だが、カナダ・オタワ大学公式言語・バイリンガリズム研究所(OLBI)の調査が示すのは、まったく異なる風景だった。研究者のマルティーヌ・レオームは、英語・フランス語の第二言語教育に携わる教員24人の声を集めた。回答率は40%。制度的調査としては堅実な数字だ。

そこから浮かび上がったのは、「プラグマティスト」と呼ぶべき教師たちの姿だった。生成AIの可能性は認めるが、教育的なエビデンスが揃うまで全面採用は控える。拒絶でも熱狂でもない、現場の知恵に基づいた態度だ。


「使っていない」のに使っている

面白い矛盾があった。調査では複数の教員が「生成AIは一切使っていない」と回答した。ところが続く質問で、Grammarlyで文章を校正し、DeepLで翻訳していることが明らかになる。

Grammarlyは2023年に生成AI機能を統合し、DeepLも独自の大規模言語モデルを開発している。教員たちが「使っていない」と感じていたのは、ChatGPTのようなチャット型ツールだけだった。

この認識のズレが、見落とされがちな区分を浮き彫りにした。教員たちは「既存の作業を補助するAI」と「新しいコンテンツを生成するAI」を、無意識のうちに分けていた。文法チェックや翻訳は「補助」、文章丸ごとの生成は「創作」。後者にだけ警戒心が働く。

この区分は、オーサーシップ──誰が書いたのかという問い──と深く結びついている。自分の言葉を磨くのと、AIに言葉を作らせるのは、根本的に違う行為だと教師たちは直感的に理解していた。

教員が無意識に行うAIツールの区分
補助型AI 生成型AI
役割 既存の作業を磨く 新しいコンテンツを作る
ツール例 Grammarly、DeepL ChatGPT
教員の認識 「AI未使用」と回答 「AI使用」と認識
警戒度 低い 高い
本質的違い 自分の言葉を磨く AIに言葉を作らせる
オタワ大学OLBI調査(教員24人、回答率40%)に基づく

効率の盾、学習の壁

調査で最も示唆的だったのは、教員たちのAI活用パターンだ。レッスンプランの作成、コース連絡文の下書き、授業用の短いテキスト──こうした管理業務にはAIを積極的に活用する。ある教員は「授業準備やアクティビティのアイデアに使える可能性は無限だ」と語っている。

しかし同じ教員たちが、学生の学習にAIを直接導入することには明確な躊躇を示した。なぜか。

答えは認知科学にある。心理学者のロバート・ビヨークとエリザベス・ビヨークが提唱した「望ましい困難」理論がヒントになる。学習とは、ツールが見えなくなり学びそのものが前面に出る段階を目指すプロセスだ。たとえば、自転車に乗れるようになった人は、ペダルの踏み方を意識しない。

言語教育でも同じことが起きる。文法の判断を自動補完機能に委ねたり、議論の構築を言語モデルに任せたりすると、学生は「認知オフロード」に陥る。洗練された成果物は出来上がるが、その過程で必要な能力は未発達のままだ。

ある教員はこう懸念を表明した。「学生がそれで逃げ切れるなら、彼らは永遠に書くことを学ばないだろう」。

「プラグマティスト」教員のAI活用パターン
管理業務 学生の学習
態度 積極的に活用 明確な躊躇
用途例 レッスンプラン作成
コース連絡文の下書き
授業用テキスト生成
理由 効率化の恩恵が大きい 「認知オフロード」の危険
学生が書くことを学ばない
教員の声 「可能性は無限だ」 「永遠に書くことを
学ばないだろう」
「望ましい困難」理論(R.ビヨーク、E.ビヨーク)が背景にある

抵抗ではなく、選択

教育歴史家のラリー・キューバンが指摘するように、教師は技術そのものに抵抗しているのではない。自分たちの問題を解決しないツールに抵抗しているのだ。今回の調査データもこの洞察を裏付けている。

教員たちは反AI主義者ではない。自身の生産性向上にはAIを歓迎している。しかし学習の核心部分──認知的に負荷のかかる、だからこそ能力を育てるプロセス──をAIに委ねることの危険性を、直感的に、あるいは理論的に理解している。

少数だが、より哲学的な懸念を示す声もあった。あるフランス語教員は生成AIを「思考の自律性への脅威」と表現した。高等教育が守るべき批判的思考能力への危機感を示している。


政策は教室から

UNESCOは2023年の生成AI教育ガイダンスで、AI採用のペースが認知的・倫理的影響への集団的理解を追い越してはならないと警告している。今回の調査で見えた教員たちの態度は、この予防原則を自然に体現していた。

問題は、この現場の知恵が政策立案に反映されているかどうかだ。大学がAI導入の大号令を出しても、学習の認知的アーキテクチャを理解しない者が設計すれば、形式的には整っていても実際には機能しない政策が生まれる。逆に、全面禁止も現実的ではない。学生は卒業後、AIツールが溢れる労働市場に入っていく。責任ある使い方を教えないまま送り出すことはできない。

レオームは三つの制度的コミットメントを提案している。

「アシスト型AI」と「生成型AI」の機能区別を教え、学習プロセスを保護し、教師が関与の条件を決める権限を維持すること。これが「プラグマティスト」の多数派が照らし出したAIリテラシーの道筋だ。

第一に、AIツールを「機能」で区別して教えること。既存の作業を補助する能力と、新しいコンテンツを生成する能力は、教育的な意味が異なる。

第二に、学習プロセスを守ること。評価設計は下書き・修正・反省というプロセスを重視すべきで、言語モデルが簡単に模倣できる最終成果物だけを見るべきではない。

第三に、教師の役割を再定義すること。OECDが指摘するように、教育者の役割は知識の伝達者から批評的評価者・学習設計者へと移行しつつある。AIはこの移行を支援できるが、それは教師が関与の条件を決める権限を持つ場合に限られる。


誰が線を引くのか

結局のところ、問いはシンプルだ。教室でAIをどう使うかを決める権限を、誰が持つべきなのか。

大学本部でも、テック企業でもない。学生の認知的発達を日々見守り、何が学びを深め何が学びを妨げるかを肌で知っている教育者たちだ。今回の調査が示したのは、その教育者たちがすでに答えを持っているという事実だった。

「プラグマティスト」たちの選択は、拒絶でも盲信でもなく、用途による使い分けだった。自分の仕事には使う。学生の頭を動かす場面には入れない。この線引きを、制度がどこまで尊重できるか。答えは、大学がAI時代に教育の本質を守れるかどうかの試金石になる。


参照元

関連記事