GoogleのAIがダークウェブを巡回する──精度98%の「脅威フィルター」は何を変えるのか
ダークウェブに流れる1日1,000万件の投稿。その中から自社に関係する脅威だけを拾い上げるAIが、静かに動き始めた。従来のツールが生み出してきた「ノイズの山」は、本当に過去のものになるのか。
ダークウェブに流れる1日1,000万件の投稿。その中から自社に関係する脅威だけを拾い上げるAIが、静かに動き始めた。従来のツールが生み出してきた「ノイズの山」は、本当に過去のものになるのか。
Geminiが毎日1,000万件のダークウェブ投稿を解析する
Google Threat Intelligenceに、ダークウェブの脅威情報を自動収集する新機能が加わっている。RSAC 2026(現地時間3月23日〜26日、サンフランシスコ)の開幕に合わせてパブリックプレビューとして公開されたこの機能は、Geminiモデルを使い、ダークウェブ上の投稿を1日あたり800万〜1,000万件処理する。
ただのキーワード監視ではない。Geminiはまず顧客企業のプロファイルを自動生成する。事業内容、ブランド、使用技術、要人情報といった公開情報をかき集め、数分で「この企業が狙われたらどう見えるか」の輪郭を描く。そこにダークウェブの投稿をベクトル比較で突き合わせ、関連性の高い脅威だけをアラートとして浮上させる。内部テストでの精度は98%だという。
Google Threat Intelligenceのプロダクトマネージャーであるブランドン・ウッドは、The Registerの取材に対し、初期アクセスブローカーの活動、データ漏洩、内部脅威など、従来は埋もれていた情報を「本当に重要な脅威」に絞り込めると語った。
従来ツールの「誤報率80〜90%」という現実
この機能が解こうとしている問題は明快だ。従来のダークウェブ監視ツールは、キーワードと正規表現で投稿をスクレイピングし、ヒットしたものをアラートとして吐き出す。
だが、攻撃者は被害企業の名前をわざと避ける。「北米の大手銀行、従業員5万人以上、運用資産500億ドル」とだけ書いて、VPNアクセスを売りに出す。キーワードマッチでは引っかからない。ウッドによれば、こうした従来型ツールの誤検知率は80〜90%にのぼり、脅威インテリジェンスチームの作業の大半は「ノイズの選別」に費やされてきた。
Geminiのアプローチは、キーワードではなく「意味」で照合する。攻撃者の投稿に含まれる業種、地域、売上規模、ポータルの種類を、企業プロファイルと突き合わせる。Googleの公式ブログが紹介するシナリオでは、犯罪者が企業名を伏せたままVPNアクセスを販売した投稿を、Geminiが子会社のプロファイルと照合して高危険度の脅威として検出する。

LastPassの脅威インテリジェンス責任者マイケル・コサックは「以前使っていたダークウェブツールは誤検知率90%以上だった。この新機能は、人間のアナリストでは間に合わない速度でノイズを除去し、点と点をつなげる」と評価している。
「22秒」で攻撃が引き継がれる時代
このタイミングでダークウェブAIが登場した背景には、攻撃の速度が劇的に変化した事実がある。同じくRSAC 2026に合わせて公開されたMandiant M-Trends 2026レポートは、2025年に実施した50万時間超のインシデント調査をもとに、サイバー攻撃の構造変化を描き出している。
最も衝撃的な数字は「ハンドオフ時間」だ。初期アクセスを獲得した攻撃者が、ランサムウェアグループなど二次的な攻撃者にアクセスを引き渡すまでの時間が、2022年の8時間超からわずか22秒にまで縮小した。攻撃者同士の分業と自動化が、人間の対応速度を完全に置き去りにしている。
脆弱性の悪用が初期感染経路の32%を占め、音声フィッシング(ビッシング)が11%で2位に浮上した。一方でメールフィッシングは2022年の22%から6%にまで急落している。攻撃の入口が「技術的な穴」と「人間の判断ミス」に二極化している構図だ。
M-Trends 2026によれば、ランサムウェアの主目的は「データ窃取」から 「復旧妨害」 へとシフトしている。バックアップ、ID管理、仮想化管理プレーンを体系的に破壊し、身代金を払わざるを得ない状況に追い込む手法が顕著になった。
AIで守り、AIで狙われるというジレンマ
評価すべき技術であることは間違いない。しかし、Gemini自身が攻撃の道具になっている現実も目を逸らせない。
Googleが2026年2月(日本時間)に公開したAI脅威トラッカーレポートは、中国政府系ハッキンググループAPT31がGeminiを使い、米国組織への攻撃計画を立てていたことを明らかにした。脆弱性の分析から防御体制の弱点特定まで、AIが攻撃の偵察段階を自動化していた。
さらに今月、ChromeのGemini AIパネルに深刻な脆弱性(CVE-2026-0628)が発見され、悪意ある拡張機能がカメラやマイクへの不正アクセスを行える状態だったことも報告されている。守る側のAIインフラそのものが、新たな攻撃対象になるという構造的なリスクだ。
ダークウェブ情報収集ツールに企業のプロファイルを投入するということは、Geminiに「自社の弱点の地図」を渡すことでもある。ウッドは「公開情報とユーザーが選択的に提供する情報のみを使う」と説明するが、そのプロファイルが漏洩した場合のリスクについて、Googleはまだ十分な説明を示していない。
人間が握るべき「最後の判断」
Google Security Operationsには、AIエージェントがアラートのトリアージと調査を自律的に行う機能もプレビュー公開された。リモートMCP(Model Context Protocol)サーバー対応により、企業が独自のセキュリティエージェントを構築できる環境も一般提供が始まっている。
627の脅威グループを追跡するGTIG(Google Threat Intelligence Group)の人間のアナリストが、Geminiの判断にコンテキストを与えるという設計は理にかなっている。AIが処理し、人間が文脈を補い、最終判断は人間が下す。少なくとも現時点では、そういう建て付けだ。
正直なところ、精度98%が内部テストの自己申告である点は割り引いて見る必要がある。多言語・多文化のダークウェブコミュニティに対して、実運用でどこまで精度を維持できるかは未知数だ。
それでも、1日1,000万件の投稿を人間が処理することは不可能であり、AIによる選別は避けられない方向にある。問題は「AIが監視する」こと自体ではなく、AIに何を委ね、何を人間の手に残すかという線引きだろう。
ダークウェブの攻撃者はすでにAIを使っている。守る側がAIを使わない選択肢はない。ただし、守るためのAIが新たな攻撃面を生むなら、それは解決ではなく問題の移動だ。
#Google #Gemini #ダークウェブ #サイバーセキュリティ #AI #RSAC2026 #脅威インテリジェンス