Anthropic、企業60アカウント誤BAN X拡散で復旧
Anthropicの自動システムが、アルゼンチンのフィンテック企業beloの60以上のClaudeアカウントを一斉停止した。復旧はCTOのX投稿が175万表示を超えた後で、異議申し立て窓口はGoogleフォームのみだった。
Anthropicの自動システムが、アルゼンチンのフィンテック企業beloの60以上のClaudeアカウントを一斉停止した。復旧はCTOのX投稿が175万表示を超えた後で、異議申し立て窓口はGoogleフォームのみだった。
自動BAN、60人分の業務が同時に止まる
belo社のCTO、パト・モリーナ(Pato Molina)が2026年4月17日にXへ投稿した一連のポストが、AI業界で議論を呼んでいる。Anthropicが同社のClaude組織アカウントを60以上まとめて停止し、理由の説明は「利用ポリシー違反の兆候」という抽象的なメール1通だけだった。
beloはアルゼンチンを拠点にする、法定通貨と暗号資産を扱うデジタルウォレット事業者だ。社内業務の多くがClaudeに依存しており、統合機能・スキル・会話履歴のすべてが一瞬で使えなくなった。影響を受けたのは60以上のアカウントで、従業員は翌日の朝から既存ワークフローの起動すら難しい状況に置かれた。
モリーナは投稿でこう綴っている。
どの具体的なポリシーに違反したのか、まったく見当がつかない。メールが1通届いて、それで終わり、さよならClaude。
異議申し立ての窓口として提示されたのは「Googleフォーム」のみだった。60アカウントを抱える法人向けの対応がフォーム1枚というのは、エンタープライズ契約の相場観から外れている。モリーナが「UXも顧客対応も、ひどすぎる」と公開で苛立った気持ちも分かる。
「Tuiter es servicio」Xが唯一の機能するサポート窓口
約15時間後、beloのアクセスは復旧した。モリーナは誤検知(falso positivo)だったらしい、と後続の投稿で報告している。そしてこう付け足した。
Tuiter es servicio.(Xこそがカスタマーサポートだ)
この一言が、今回の事件の核心を言い当てている。復旧した理由がAnthropic側の自発的な再調査だったのか、175万回以上の表示を獲得したX投稿への火消しだったのかは分からない。分からないが、同じ投稿のリプライ欄には、何ヶ月も前から同じフォームに無反応のまま、というユーザーの証言がいくつも並んでいる。
つまり、Googleフォームは機能していない。機能しているのはX上でバズる能力だ。フォロワー数と拡散力のある法人CTOだから15時間で戻ってきた。同じ状況に置かれた個人開発者や小規模チームは、いまもフォームの前で待機している。
これは単なる誤BAN事件ではなく、Anthropicの異議申し立てインフラが表向き存在しつつ実質的に機能していない状態で運用されているという、構造の話だ。
「すべての卵を一つのカゴに入れるな」の前に問うべきこと
モリーナ自身は、この件の教訓を「すべての卵を一つのカゴに入れるな」とまとめている。beloはGeminiをバックアップとして用意していたにもかかわらず、移行作業中は全員の業務が止まった。AIプロバイダを複数契約して冗長化するのは、供給サイドのリスクヘッジとして理にかなっている。
リプライ欄には、AWSやAzure、Oktaのような認証基盤でも同じことは起きうるのだから、クラウド全般の依存リスクとして一般化すべきだ、という声もある。これもまっとうな指摘だ。
ただ、ここで話を「ユーザー側の分散責任」に寄せすぎると、もう一つの論点がぼやける。サービス提供側が異議申し立てのフロントをGoogleフォームで済ませているという事実は、ユーザーの準備の問題ではない。クラウドインフラのSLAに「バズらなければ復旧しません」と書いてあれば誰も契約しないだろうが、実態としてそれに近い運用が許容されているのは、AIサービスがまだ基幹インフラとして扱われていないからだ。
beloは法人として影響力のあるCTOを抱えていたから15時間で戻ってきた。個人ユーザーや、X上で拡散力を持たない小規模なスタートアップに同じ救済ルートがあるかというと、ない。救済速度が話題性に比例する仕組みそのものが、AIを業務の中枢に据える判断を難しくしている。
誤検知を前提にした設計になっているか
自動検知システムに誤検知は必ず混ざる。問題はそこではなく、誤検知後の復旧フローがどう設計されているかだ。Anthropicからbeloに届いたメールには、こう書かれていた。
当社の自動システムがお客様のアカウントに関連する違反シグナルを多数検出し、それをチームが確認したうえで、Claudeへのアクセス権を取り消した。
つまりチームレビューは通過したうえでの判断だった、という建前になっている。
その建前が正しければ、beloの復旧は「レビューが誤っていた」ことを意味する。誤ったレビューが存在する以上、Googleフォームの先にもう一段の人間の目が必要だという話になるが、現在のフローにそれが組み込まれている形跡は、少なくとも外部からは見えない。
Anthropicの製品ラインは、法人契約を前提とするClaude Code、Claude for ExcelやClaude for Chromeなど、業務の基幹に食い込む方向へ拡張している。基幹に食い込めば食い込むほど、誤検知1件のコストは重くなる。beloは60人の業務が15時間止まった。仮に100人規模、24時間以上止まったら、失われる売上とスイッチングコストは無視できない額になる。
Xでバズれば助かる。バズらなければフォームの前で待つ。このルールのままAIが業務インフラ化していくなら、顧客側が取れる合理的な打ち手は「AIベンダーを複数契約してフェイルオーバーを組む」しかなく、それは結局Anthropic自身の収益効率にも跳ね返ってくる。復旧インフラへの投資は、顧客の信頼を守る投資でもある。
参照元