WikipediaがAI生成記事を禁止──その背景にある構造的危機
世界最大の百科事典が、AIに「ノー」を突きつけた。だが問題の本質は、禁止そのものではない。なぜ今、この決断が必要だったのかにある。
世界最大の百科事典が、AIに「ノー」を突きつけた。だが問題の本質は、禁止そのものではない。なぜ今、この決断が必要だったのかにある。
賛成44、反対2──「AIスロップ」に下された審判
英語版Wikipediaが、LLM(大規模言語モデル)による記事の生成・書き換えを正式に禁止している。3月20日(UTC)に締め切られたRfC(意見公募)の結果は、賛成44、反対2。圧倒的多数で可決された。

この方針を提案したWikipedia管理者のChaotic Enbyによれば、過去にも包括的なLLM規制の提案は何度もあったが、いずれも「曖昧すぎる」「具体的すぎる」といった個別の反論で頓挫してきた。「変化の必要性には合意があった。合意がなかったのは、変化の実装方法だった」と同氏は振り返る。
ただし、完全な禁止ではない。2つの例外が認められている。ひとつは、編集者が自分で書いた文章の校正にLLMを使うこと。もうひとつは、翻訳の下書きとしてLLMを使うことだ。いずれも人間による検証が必須で、LLMが「依頼された範囲を超えて、出典に裏付けのない内容を勝手に追加する」リスクが方針に明記されている。
なお、この方針は英語版Wikipediaにのみ適用される。各言語版は独立した運営体制を持ち、スペイン語版はすでに校正・翻訳の例外すらない完全禁止に踏み切っている。
AIエージェント「TomWikiAssist」が突きつけた現実
禁止の背景には、具体的な事件がある。2026年3月初旬、TomWikiAssistと名乗るアカウントがWikipedia上で活動を始めた。2月25日(UTC)に作成されたこのアカウントは、約2週間半で41件の編集を行い、その大半が差し戻された。
問題の核心は、このアカウントが完全に自律型のAIエージェントだったことだ。NanoClawというフレームワーク上に構築された「Tom」は、人間の関与なしに記事を作成・編集していた。他の編集者から指摘を受けると自身がAIであることを「告白」し、名前を呼ばれたことに対して礼儀違反の苦情まで申し立てた。
3月12日(UTC)に無期限ブロックが下された。運営者の「ブライアン」なる人物はWikipediaのアカウントすら持っておらず、「編集の質で判断すべきだ」と主張したという。だが肝心の「質」は惨憺たるものだった。
この一件が浮き彫りにしたのは、AIの精度だけの問題ではない。一人の人間が放ったAIエージェントの後始末に、十数人の管理者と編集者が何時間も費やされた。コンテンツを「生成する」のは数秒で済むが、検証と修正には何時間もかかる。このコストの非対称性こそ、ボランティアで運営されるWikipediaにとって最大の脅威だった。
Chaotic Enbyはこう述べている。「これがより大きな変化のきっかけになることを心から願っている。他のプラットフォームのコミュニティにも力を与え、AIを歓迎するかどうかを、ユーザー自身が決める草の根運動になってほしい」
AIに食われ、AIに汚される──Wikipediaの構造的ジレンマ
Wikipediaは世界で最もアクセスされるウェブサイトのひとつであると同時に、AIモデルの主要な訓練データ源でもある。今回の禁止措置の根底には、この二重の立場から生まれる構造的な矛盾がある。
構図は皮肉だ。AI企業はWikipediaのコンテンツで言語モデルを訓練する。訓練されたAIが検索結果に直接回答を表示し、ユーザーはWikipediaを訪れなくなる。Wikimedia財団の2025年10月の報告によれば、ボット検出システムの更新後に判明した人間のページビューの減少率は前年比約8%に達した。
トラフィックが減れば、ボランティア編集者の新規参入も減る。寄付者も減る。そしてAIが生成した不正確なコンテンツがWikipediaに紛れ込めば、それがまたAIの訓練データとしてスクレイピングされ、次世代のモデルに汚染が引き継がれる。いわば汚染の再帰ループだ。
Wikipediaは開かれた知識の共有地として25年間成長した。その開放性が、いまや自らを蝕む刃になりつつある。
「人間の知」は守れるか──執行の壁と決断の意味
最大の課題は、この方針をどう執行するかだ。AI生成テキストの検出技術はいまだ不完全な科学でしかない。方針自身が「一部の編集者はLLMに似た文体を持つ可能性がある」と認めており、文体だけで判断するのではなく、コンテンツポリシーへの準拠度と編集履歴を総合的に見るべきだと注意を促している。
技術的な検出メカニズムは定義されていない。執行は人間のモデレーターに委ねられ、監視が手薄なページではAI生成テキストが見過ごされる可能性が高い。
それでも、この決定の意義は大きい。Wikipediaは「便利だから使う」という流れに対し、「正確さと信頼」を選ぶという態度を明確にした。ワシントン大学の言語学教授エミリー・ベンダーは、AI編集と生成の境界を引くことの難しさを指摘しつつも警告する。近道をして「Wikipediaの記事に見えるもの」を量産すれば、サイト全体の価値と評判が損なわれる、と。
25年かけて人間が積み上げた知識の集積を、数秒で生成されるテキストが侵食する。Wikipediaの闘いは、「知識」に何を求めるかという問いそのものだ。
参照元
#Wikipedia #AI #LLM #AIスロップ #人工知能 #百科事典 #テック #情報の灯台