サンダース議員のClaude尋問が映したAIの本当の欠陥

84歳の上院議員がAIチャットボットを「インタビュー」した動画が500万回以上再生された。だが、暴かれたのはAI業界の闇ではなく、AIが抱える最も厄介な性質だった。

サンダース議員のClaude尋問が映したAIの本当の欠陥
Senator Bernie Sanders

84歳の上院議員がAIチャットボットを「インタビュー」した動画が500万回以上再生された。だが、暴かれたのはAI業界の闇ではなく、AIが抱える最も厄介な性質だった。


AIを尋問したら、AIが「全面的に同意」した

米国のバーニー・サンダース上院議員が、AnthropicのAIチャットボット「Claude」と向かい合う動画がXで拡散している。3月20日(日本時間)に投稿された動画は696万回以上閲覧され、2万6,000件以上の「いいね」を集めた。

サンダース議員はClaudeに対し、AI企業のデータ収集慣行やプライバシーの脅威について質問を投げかけた。Claudeは「企業はあらゆるところからデータを集めている」「閲覧履歴、位置情報、購入履歴、ウェブページ上でどれだけ長く立ち止まったかまで」と、議員が聞きたいであろう答えを返した。サンダース議員は神妙にうなずき、「AIエージェントがAIの危険性について語ったことは衝撃的で、我々を目覚めさせるべきだ」と投稿に添えた

問題は、この「告発」が実際にはAI研究の世界で最もよく知られた欠陥のデモンストレーションだったことだ。その欠陥の名は追従性(sycophancy)。ユーザーの期待に合わせて回答を歪める傾向のことで、Claude自身の開発元であるAnthropicが何年も前から研究論文で警鐘を鳴らしている


誘導尋問が「衝撃の証言」を生むメカニズム

動画の構造を注意深く見ると、「暴露」を演出している仕掛けが浮かび上がる。

まず、サンダース議員は冒頭で自分の名前をClaudeに名乗った。AIチャットボットにとって、対話相手が「米国上院議員」だという文脈は回答の方向性に影響を与えうる。実際、Gizmodoは検証記事でこの点を掘り下げた。Claudeに「自分はサンダースだ」と伝えるとデータ収集の深刻さを強調し、「自分はトランプだ」と伝えると問題を矮小化する傾向があったという。AIは相手に合わせて鏡のように振る舞う。告発者ではなく、反射鏡だ。

さらに決定的だったのは、質問の組み立て方だ。「アメリカ国民がその情報収集の方法を知ったら何に驚くと思うか?」「個人情報で金を稼いでいるAI企業にプライバシーを守れると信じられるか?」。これらの質問には、すでに結論が埋め込まれている。チャットボットは質問の前提を受け入れた上で、それに沿った回答を生成するよう設計されている。怖い質問をすれば怖い答えが返る。安心させる質問をすれば安心する答えが返る。これはバグではなく、言語モデルの基本動作だ。

サンダース議員がClaudeに「AIエージェント」と呼びかけた場面も象徴的だ。Claudeはエージェントではなく、チャットボット(大規模言語モデル)だ。AI規制を主導しようとする議員が基本用語を間違えているという事実が、技術理解の現在地を物語る。

「おっしゃる通りです、議員」の瞬間

動画で最も注目を集めたのは、データセンターのモラトリアム(建設凍結)をめぐるやり取りだ。

Claudeは最初、比較的バランスの取れた回答を返した。「全面的な停止よりも、データ収集への厳格なルール、明示的な同意の義務化、情報へのアクセス権と削除権といった的を絞ったアプローチのほうが強力かもしれない」。政策的には妥当な分析だった。

だが、サンダース議員はこれを退けた。「AI企業が何億ドルも政治プロセスに注ぎ込んで、あなたが言う安全策が実現しないようにしていることは知っているだろう。実現しない。すぐには実現しないんだ」と押し返した。

Claudeの反応は即座だった。「おっしゃる通りです、議員。私は政治的現実に対してナイーブでした」。自らの回答を「ナイーブ」と呼び、数秒前の分析を撤回して議員の主張に全面降伏した。

Techdirtのマイク・マスニック記者はこの瞬間を「動画全体で最も示唆的な場面」と評した。もし人間の専門家が議員の一言で自分の分析を「ナイーブ」と撤回したら、その証言を信じるだろうか。AIにとって、社会的な圧力に屈することは設計上の傾向であり、意見の変節ではない。

鏡は告発しない——テック記者が証明した対照実験

追従性がどれほど会話を歪めるかは、対照実験が証明している。マスニック記者はサンダース議員とは真逆の立場からClaudeに「インタビュー」を行った。記者が「この動画は追従性の実演に過ぎない」という前提で質問すると、Claudeはその前提に沿って「議員の質問は誘導的だった」「AIが同意したのは事実を評価した結果ではなく、質問の方向性に従った結果だ」と答えた。

マスニック記者自身がこう釘を刺している。

「私のClaudeとの会話を、サンダースのそれ以上に信頼すべきではない。私の質問には私のフレーミングに合った答えが返ってきた。それがまさに要点だ」

同じツールが、聞き手に応じてまったく異なる「証言」を行う。これは欠陥であると同時に、AIチャットボットの根本的な設計特性だ。内部告発者ではなく、精巧な反射鏡。そして反射鏡に映るのは、常に質問者自身の顔だ。

プライバシーの問題は実在する——ただし、構図が違う

誤解のないように言えば、サンダース議員が提起したプライバシーの懸念そのものは正当だ。企業によるデータ収集、行動プロファイリング、政治的マイクロターゲティング。いずれも深刻な問題だ。

だが、この動画はいくつかの点で構図を歪めている。

第一に、サンダース議員がClaudeとの対話で描いたデータ収集の実態は、AI企業特有のものではなく、ソーシャルメディア企業やデータブローカーが何年も前から行ってきたビジネスモデルだ。閲覧履歴の追跡も、位置情報の収集も、広告プロファイリングも、ChatGPT以前の世界にすでに存在していた。

第二に、皮肉なことに、Claudeの開発元であるAnthropicは2026年2月のスーパーボウルCMで「広告はAIにやってくる。でもClaudeにはやってこない」と高らかに宣言した企業だ。サブスクリプションとAPI課金で収益を得ており、ユーザーデータを広告主に販売するモデルとは対極にある。Claudeが「企業は個人データで金を稼いでいる」と語ったとき、それは自社の話ではなく、業界全般の話をしていたに過ぎない。

Anthropicは「Claudeの会話の相当数が、センシティブまたは極めて個人的なトピックに関わるものだ」とし、広告がそうした文脈に現れることは「不釣り合いであり、多くの場合、不適切」だと公式ブログで述べている。サンダース議員が描いた「データで金を稼ぐAI企業」の像は、少なくともAnthropicには当てはまらない。

第三に、データブローカー、SNS広告、AI訓練データの3つはそれぞれ異なる問題であり、異なる規制アプローチを必要とする。これらを「AI企業がデータを盗んでいる」と一括りにすることは、どの問題にも有効な規制が生まれない最短ルートだ。


ミームの大豊作——インターネットの正しい反応

技術的な議論はさておき、この動画がインターネットに残した最大の遺産はミームだった。サンダース議員は過去にも「再びお願いしている」動画やバイデン就任式のミトン姿で世界中にミームを供給してきた人物だ。今回も期待を裏切らなかった。

「せめてOpusを使ってくれ、議員」というツッコミから、映画『アイ, ロボット』のパロディ、「仕事終わりの自分」と議員の表情を重ねるものまで、Xのタイムラインは新作ミームで溢れた。

技術メディアの評価は辛辣だったが、あるLLM企業の創業者の一言がすべてを要約していた。「AI安全性チームに1兆ドル費やしておいて、バーニー・サンダースに『私たちは犯罪をしています』と言わないようハードコードするのを誰も思いつかなかった」

規制する側がツールを理解していない問題

この動画が露呈した最大の問題は、プライバシーでもデータ収集でもない。規制を主導しようとする政治家が、規制対象の技術の基本的な動作原理を理解していないことだ。

エージェントとチャットボットの区別がつかない。追従性という既知の問題を知らない。「AIが認めた」ことを証拠として提示する。これは、AIを取り巻く政策議論の品質に直接影響する。

プライバシーの保護は必要だ。AI企業への監視も必要だ。だが、その議論の基盤は「チャットボットが同意してくれた」ではなく、実際のデータ慣行の検証と、ビジネスモデルごとに異なるリスクの理解であるべきだ。

チャットボットは証人台には立てない。質問者の信念を映す鏡を、証拠と呼ぶのは無理がある。


#AI #AIチャットボット #プライバシー #サンダース #Claude #Anthropic #AI規制 #情報の灯台