AIは診断できる、だが理由は説明できないという医療の現実
ニューヨーク・タイムズ・マガジンが「AIがどう動いているか、我々は本当には知らない。これは問題だ」と題する特集を公開し、Redditのr/technologyで上位に押し上がった。解釈可能性研究の現在地を、アルツハイマー病診断を軸に描いた記事だ。
ニューヨーク・タイムズ・マガジンが「AIがどう動いているか、我々は本当には知らない。これは問題だ」と題する特集を公開し、Redditのr/technologyで上位に押し上がった。解釈可能性研究の現在地を、アルツハイマー病診断を軸に描いた記事だ。
「当てるが、理由は言えない」モデルの問題
記事の中心に据えられているのは、Prima Menteという米英に拠点を置くAIバイオ企業の一件だ。CEOのラヴィ・ソランキ(Ravi Solanki)は元々臨床医で実験神経科学者。患者の血液サンプルと脳スキャンをAIに学ばせた結果、2025年までにアルツハイマー病をヒトの医師より高精度で予測するモデルが完成した。
問題はここからだ。モデルは当てる。だが、なぜ当たるのかを誰も説明できない。ソランキは医師に向かって「このモデルは診断できます」と言えない。神経科医ティモシー・チャン(Timothy Chang)が記事中で述べているとおり、医師は仕組みを知りたがる。
家を買うのとは違う。あなたは誰かのデータを取り、その人自身のことを伝えているのだ。
ソランキはそう語る。診断は商品の引き渡しではない。本人の人生に関わる宣告だ。
これが解釈可能性の現場だ。性能が上がれば上がるほど、中身は不透明になる。2018年に登場した最初の大規模言語モデルは数千万個の数式で動いていた。GoogleのGeminiやOpenAIのGPT-5は、公式には明かされないが、数兆個の数式を抱えると推定されている。規模が大きくなるほど、透明性は 指数関数的に 失われていく。
Anthropicが国防総省と衝突した「根っこ」もここにある
NYT記事はこの文脈で、2026年初頭に表面化したAnthropicと国防総省の紛争に触れている。Anthropicは一部の高リスク用途、特に完全自律型兵器への統合を拒否し続けた。CEOのダリオ・アモデイは「今日のフロンティアAIは、完全自律型兵器を担えるほど信頼できるものではない」と述べている。
学校バスを破壊したドローンが、AIにそう指示されたからだ、という理由しか提示できない世界を想像してほしい。手術が必要だと告げられて理由を尋ねたら、医師が「コンピューターがそう言ったから」としか答えられない世界を。
NYT記者のオリバー・ワン(Oliver Whang)はこう書いている。これは比喩ではない。2026年2月27日、トランプ大統領は全連邦機関にAnthropic技術の即時停止を命じ、3月5日には国防総省がAnthropicをサプライチェーンリスクに指定した。米企業に対してこの指定が適用されたのは初めてだった。紛争の発端は技術の信頼性への評価差だが、その底にあるのは 「中身が説明できないもの」 を人命の判断に使えるかという問いだ。
「疎オートエンコーダー」という希望と、その後の幻滅
解釈可能性研究の主力手法の一つが、疎オートエンコーダー(sparse autoencoder、SAE)だ。Anthropic共同創業者のクリス・オラー(Chris Olah)が2021年頃から押し進めた。モデル内部の膨大な数式の集合から、意味のある単位を取り出そうとする技術だ。
2023年末、オラーはSAEでの実験結果を論文として発表し、コミュニティは高揚した。アモデイは「モデルの脳スキャンが近いうちに可能になる」「嘘をつく傾向や騙す傾向を識別できるようになる」と予測していた。
だが、1年も経たないうちに問題が出始めた。SAEが特定した「経路」が、実際にはモデルで使われていない偽陽性だったケースが次々と見つかった。Google DeepMindでmechanistic interpretabilityチームを率いるニール・ナンダ(Neel Nanda)は2025年春、SAEを1年近く専門にやってきたチームとして基礎研究の優先度を下げると公表した。「時間が経つにつれて、少し幻滅してきた」——ナンダはNYTにそう語っている。
ブレークスルーから道具箱へ の後退。解釈可能性研究は、かつて想定していた「AIを解き明かす鍵」ではなく、限定的な洞察を生む複数の手法の一つとして位置づけ直されつつある。
我々は過去数年間に進歩してきた。だが数ヶ月ごとに、ある手法を深く検討し、また別の手法を深く検討している。
ブラウン大学のエリー・パヴリック(Ellie Pavlick)はそう述べている。Googleのビーン・キム(Been Kim)は、10年以上この分野に関わってきて、度重なる失敗が自分を一種の「中年の危機」に追い込んだと語った。
それでも見えてきた、新しい診断の扉
悲観一色ではない。2026年1月、解釈可能性企業Goodfire(CEO エリック・ホー、共同創業者 Dan Balsam)とPrima Menteが共同論文を発表した。Prima Menteのアルツハイマー診断モデルをSAEで分解した結果、血液中の DNA断片の「長さ」 がアルツハイマー病と相関するという新しいバイオマーカー候補を特定したのだ。
これは、既存の科学文献になかった知見だった。AIが見つけた規則性を人間が理解可能な形で取り出した、いわば AIから人間への知識移転 の初期成功例だ。アルツハイマー研究者のベス・フロスト(Bess Frost、ブラウン大学)は「腑に落ちる。私が思いつくようなものではなかった」と評価している。Goodfireは2026年2月、Series Bで 評価額12億5千万ドル (約1988億円)に達した。
もちろん課題は残る。SAEの偽陽性問題は完全に解決したわけではない。因果関係と相関関係の区別も、結局は生物学者の追試が必要だ。それでも、完全なブラックボックスのまま使うのではなく、部分的にでも説明できる形に踏み出すこと。これは医療応用において決定的に重要な一歩だ。
結局、人間の脳も我々は完全には理解していない
記事の後半で、ノースイースタン大学のデイヴィッド・バウ(David Bau)が興味深い比喩を出している。「細胞は生物学者にとってブラックボックスだった。彼らが遺伝の研究に取りかかるまで長い時間がかかった。しかし、一度取りかかってみれば、問題は解かれていった」
1930年の生物学と、2026年のAI研究は似ている。構造はそこにある。理解が追いついていないだけだ。科学は遅い。しかし着実に進む。
解釈可能性は、かつて期待された「AI全体を解明する単一の鍵」ではないのかもしれない。だが、モデルがどうやって特定の診断にたどり着いたかを、部分的にでも説明できる力は、すでに医療現場で必要とされている。説明できない技術を人命の判断に委ねることに、我々はどこまで寛容になれるのか。
参照元
関連記事
- OpenAI・Anthropic・Googleが共闘、中国への「蒸留」流出で情報共有
- Salesforce Headless 360発表、UIを捨てる覚悟
- GitHub連携AIエージェント3種に認証情報窃取の脆弱性
- Chromeが「スキル」搭載、Geminiプロンプトがワンクリック化
- Mythos配布から外された欧州、AI主権の空白が露呈する
- Microsoft、3つ目のCopilot系エージェント開発
- OpenAI流出メモ、Anthropic売上水増しと告発
- AIは「神の子」か──Anthropicがキリスト教指導者15人を招いた理由
- Anthropic、OpenClaw開発者をBAN
- ChatGPT Pro、100ドル新層とPlus縮小の二面策