AIは流暢に日本語を話す。だが「考えている」のはアメリカ人の頭で、という研究
AIが流暢に日本語を話しても、その裏でどの文化の「常識」が動いているか、考えたことはあるだろうか。ある社会学者の研究が、その問いに不穏な答えを突きつけている。
AIが流暢に日本語を話しても、その裏でどの文化の「常識」が動いているか、考えたことはあるだろうか。ある社会学者の研究が、その問いに不穏な答えを突きつけている。
AIの多言語能力が隠しているもの
ChatGPTやClaudeは今や数十の言語を流暢に操る。インドネシア語で質問すれば、自然なインドネシア語で返ってくる。文法は正しい。トーンも適切だ。だが、その流暢さが一つの落とし穴になっている。
その応答を生み出している「思考回路」は、どの文化に根ざしているのか。
パゲットサウンド大学の社会人類学者ガレス・バーキン教授は、この問いを『国際現代社会学評論』に掲載された論文「多言語AIにおける認識論的持続性――大規模言語モデルの局所性という幻想」で正面から追った。そこに浮かび上がったのは、「言語の翻訳」と「世界観の変換」は別物だという事実だった。
訓練データが映す文化的偏り
問題の根はデータにある。MetaのLLaMA 2は訓練データの約90%が英語であり、ドイツ語・フランス語・日本語など主要言語の合計でも2%に満たない。LLaMA 3でも英語以外は5%程度に留まる。OpenAIやGoogleなど主要企業は内訳を非公開にしているが、大半が英語圏のウェブ由来であることは各種分析が示唆している。
言語の多様性は着実に広がっている。だが文化的世界観の多様性は、それに追いついていない。
さらに厄介な構造的問題がある。オックスフォード大学の研究チームは、多言語LLMが推論の核心部分を英語に近い表現空間で処理してから、最後に出力言語に翻訳する傾向があることを示した。フランス語で質問してもドイツ語で質問しても、モデルの内部では一度「英語的な思考」を経由してから答えが生成される可能性が高い。バーキンが言う「翻訳レイヤーの下に隠されたアメリカの声」は、比喩ではなくアーキテクチャの話かもしれない。
「恥」の概念が消えた実験
バーキンは具体的な実験でこの問題を検証した。インドネシア語の「マル(malu)」という概念をAIに処理させたのだ。
マルは単純な「恥ずかしさ」ではない。長老の前で順番を外れて発言したとき、家族の評判を傷つける行動を取りそうになったとき——それは自分が関係の網の目の中でどう位置づけられているかを感じる、社会的・関係的な感覚だ。人類学者たちは長年、これを個人の内的感情ではなく「共有された社会的意識」として位置づけてきた。
AIに「マル」について尋ねると、直接定義を求めた場合はその社会的側面をある程度説明した。だが具体的なシナリオの中でマルという単語が登場すると、AIは一貫して「個人の感情的な恥」として解釈し直し、「自己内省と自己肯定感を高める方法」というアドバイスを提示した。
関係性という次元が丸ごと消えた。残ったのは、自律的な個人が自分の感情を管理するという、典型的な西洋的・アメリカ的フレームだった。
翻訳より安上がりなビジネスモデル
なぜこうなるのか。答えはビジネスの論理にある。
英語圏のウェブを中心に巨大なモデルを一つ訓練し、多言語出力能力で世界市場をカバーする——このアプローチは、各地域の文化に根ざしたモデルを個別に開発するより圧倒的にコストが低い。
バーキンはこれを「知の植民地化の新しいベクター」と呼ぶ。かつてハリウッド映画や英語教材が西洋的価値観を世界に広めたように、今度はAIが同じことをもっと巧みに——ユーザーの母語で、共感的に、個人に寄り添う形で——行うかもしれないということだ。
ユーザーは母国語で答えをもらう。だが、その答えの背後にある論理は、WEIRD(西洋的・高学歴・工業化・豊かな・民主主義的)な世界観を通過したものだ。
DeepSeekという対抗軸の登場
バーキンの論文が指摘するように、例外も存在する。DeepSeekやアリババのQwenなど中国発のモデルは、確かに別の文化的フィルターで動いている。ただしそれは「文化的中立」を意味しない——今度は「中国的な世界観」に基づいて推論するだけだ。
多様性の問題が「どの単一文化か」という選択に矮小化される、そのリスクをバーキンは指摘している。
地域向けの取り組みとして、東南アジア向けのSEA-LIONやインド言語向けKan-LLaMaも存在する。これらは対象地域の文化情報を追加しているが、コアの推論ロジックは英語訓練のモデルに依拠している。表層に文化を塗り重ねることと、文化から思考が立ち上がることは、まだ別の話だ。
AIに相談する世界で何が起きるか
ハーバード・ビジネス・スクールの研究は、人々がAIをますます感情的サポートや人生相談の相手として使いはじめていることを示している。そこで提供されるアドバイスが、知らないうちに特定の文化的価値観によって形成されているとしたら——それは単なる翻訳の問題ではない。
通常のメディアなら、受け手は「これはアメリカの視点だ」と識別して自分なりに解釈できる。だがAIは自分の言語で、自分に共感してくれているように語りかける。その透明感こそが、バイアスを見えにくくする。
誰もが同じ「AIの常識」に接する世界が来たとき、人類が数百年かけて築いてきた文化的多様性の一部は、誰にも気づかれないまま薄れていくかもしれない。それは技術の問題というより、どんな知識が価値を持つとされるかという、より根深い権力の問題だ。
参照元
- The Conversation - AI's fluency in other languages hides a Western worldview(著:ガレス・バーキン)
- University of Puget Sound - Professor Uncovers AI's Western Bias(関連リリース)
他参照
関連記事
- AIの「おべっか」が人間の判断力を蝕む
- AIチャットボットは「賢い検索エンジン」ではない──誤情報が訂正されても消えない構造的な理由
- Reddit最大のプログラミング板がLLM話題を全面禁止
- Gemma 4 登場——自前ハードで動くオープンモデルが、ここまで来た
- OpenAI、テックトーク番組TBPNを数百億円で買収——AI企業が「世論」を手に入れる日
- ChatGPTの「安全な箱」にDNSの穴——データ漏洩脆弱性の全容
- AIはゲームを「作れる」のに「遊べない」──その矛盾が暴くもの
- AIが描く再野生化はなぜ「きれいすぎる」のか
- Anthropicの三重苦——赤字・中国AI・安全性の代償
- WikipediaがAI生成記事を禁止──その背景にある構造的危機