ChatGPT法務の幻想――弁護士費用はむしろ上がっている
「AIで法務費用を節約する」はずが、むしろ請求額が膨らんでいる。ChatGPTが作った戦略の後始末に、現場の弁護士が追われ始めた。
「AI弁護士」という幻想が崩れ始めている
米Century Cityで弁護士事務所Sterling Media Lawを運営し、講演者派遣会社BigSpeakの副社長も務めるKen Sterling氏が、Inc.に警告を寄稿した。タイトルは「ChatGPTが弁護士の代わりになると思っているなら、考え直せ」。内容はシンプルだ。AIを弁護士代わりに使うクライアントは、実際の弁護士を雇うよりも高いコストを払っている。彼はそう断言する。
同じ頃、ファイナンシャル・タイムズが英国の弁護士事務所への取材記事を2026年4月11日に公開した。記事に登場する特許弁護士のパートナーは、AIが生成した書類の確認に費やす時間を「これまで吸収していた」が、今後は固定料金契約の値上げを検討していると語っている。
そしてBlueskyでは、法学者や現場弁護士たちがその記事を引用しながら「これは本当にその通りだ」と声を揃えている。米国、英国、そして法学アカデミア。異なる場所から、ほぼ同時に同じ嘆きが聞こえてきた。
「クライアントは、AIチャットボットが生成した手紙・メール・質問・特許を大量に弁護士に送りつけている。それに応答するのに費やした時間を反映して、弁護士費用が上がる可能性が出てきた」(FTの記事より、Blueskyで法学者Ann M. Lipton氏が引用)
節約のはずが、値上げの引き金になっている。これは個別の失敗談ではなく、業界全体で起きている構造的な反転だ。
Krafton事件――250億円を守るために雇ったAIが、250億円を失わせた
議論を具体化する事例が、すでに法廷で確定している。韓国のゲーム大手Kraftonだ。
2021年、Kraftonは「Subnautica」の開発スタジオUnknown Worldsを5億ドル(約7,770億円)で買収し、続編の売上が一定基準を超えた場合に追加で2億5,000万ドル(約3,885億円)を支払う契約を結んだ。ところが内部の売上予測が好調を示し始めると、CEOのChanghan Kim氏はこの契約を「押しつけ契約」と呼び、支払いを回避する方法を探し始めた。
自社の法務チームは「不当解雇で創業者を追い出してもアーンアウト義務は消えない。訴訟と評判のリスクがある」と明確に警告していた。ところがKim氏はその助言を無視し、ChatGPTに相談した。
チャットボットは最初こそ「キャンセルは難しい」と答えた。しかしKim氏が粘ると、AIは「Project X」と名付けられた多段階の乗っ取り戦略を吐き出した。Steamの配信権をロックダウンし、紛争を「金銭ではなくファンの信頼と品質の問題」として再フレーム化し、体系的な法的防御資料を準備する――そういう筋書きだ。
Kim氏はそのプランに忠実に従い、創業者3人を解雇した。そして2026年3月、デラウェア州衡平法裁判所のLori Will副裁判官は、この一連の行為を契約違反と判断し、元CEOのTed Gill氏の復職を命じた。判決文の冒頭はこう始まる。
「『押しつけ契約』を結んでしまったと恐れ、Kraftonのchief executiveは人工知能チャットボットに相談して企業『乗っ取り』戦略を編み出した」
人間の法務チームが無料で提示していた正しい答えを無視し、AIが出した誤った答えに従った結果、会社は2億5,000万ドルのアーンアウト支払い義務だけでなく、追加の損害賠償訴訟フェーズにも突入することになった。節約どころの話ではない。
「情報」は出せても「判断」は出せない
Sterling氏は寄稿の中で、法律とチェスや囲碁の違いに触れている。ルールを学べばコンピュータが勝てるゲームと違い、法律実務には判断と説明責任が求められる、と。
AIが苦手なのは、事実がどう展開していくか、相手方の弁護士がどう反論してくるか、裁判官がどう評価しそうか、そしてその判断が広範なビジネス目標にどう影響するか――この四つを同時に読むことだ。AI生成の法的分析は「過剰に自信満々で、粗く、実質的に不完全」だと彼は書く。
現場の弁護士が見ている失敗パターンは共通している。
法的基準の誤解。適用法域の取り違え。結論の過度な一般化。精査に耐えない戦略。現実世界の帰結を無視した確信に満ちた回答。
これらは単なる文法ミスではなく、結果を左右する誤りだ。
・ ・ ・
Nippon Life Insurance Company of Americaが今年3月にOpenAIを相手取って起こした訴訟は、この問題のもう一つの側面を見せている。和解済みで棄却された障害給付金訴訟の原告が、弁護士とのやり取りをChatGPTにアップロードしたところ、AIは弁護士の助言を「gaslighting(心理的操作)」と呼び、訴訟の再開を勧めた。原告は弁護士を解任し、ChatGPTが書いた20件以上の申立書と多数の通知書を連邦裁判所に提出した。
Nippon Lifeはこれらの書類に応答するためだけに約30万ドル(約4,665万円)の弁護士費用を費やし、OpenAIに対してイリノイ州での無資格法律業務として提訴した。訴状は懲罰的損害賠償1,000万ドル(約15億5,500万円)を求めている。
和解合意があったにもかかわらず、AIは「合意の条件を覆す論拠」を喜んで生成した。これが法廷で「情報提供」と見なされるか「法律業務」と見なされるかは未決だが、現時点で一つだけ確実なのは、誰かの請求書が分厚くなったということだ。
「AI生成の依頼」が現場を圧迫する構図
FTが取材した英国の特許弁護士は、もっと地味な現実を語っている。彼女の事務所では、クライアントがAI生成の特許書類を持ち込むケースが増えている。その書類は特許庁で「大きな問題」に直面することが多く、チャットボットは「関連性があるかどうかわからない、何ページにもわたる資料」を生成する。
「確かにプロセスを遅らせている」と彼女は語る。そして、これまで吸収してきた「AI生成書類のレビュー時間」を反映して、固定料金契約の値上げを検討していると付け加えた。
Blueskyでは、別の特許弁護士がこんな場面を書いている。クライアントが得意げに「公開AIツールを使ったよ、時間もお金も節約できた」と告げてくる。弁護士としては「……あなた、その開示内容をとても誇らしく思っているようですね。ちょっと特許法について話しましょうか」と返すしかない。公開AIツールへの開示は、特許における「新規性」を消滅させる行為だからだ。
さらに別の実務家は、クライアントの家族からAIが作った「提出準備完了」の申立書の束を受け取ったと語る。
中身は法的に実行不可能なスロップ(slop/雑な生成物)だった。「大金がかかっているから何でも試したい気持ちはわかる。でも、AIの誇大宣伝を打ち消さなければならないケースは珍しくない」
これらはすべて、弁護士がクライアントに請求する「時間」に変換される。AIが書いた書類を読み、間違いを特定し、クライアントに「これは使えません」と説明し、ゼロから正しい書類を作り直す。その全工程が、AI登場前には存在しなかった作業だ。
誰が得をして、誰が損をしているのか
ここで立ち止まって考えたい。AIの法律アドバイス機能によって、本当に誰かが節約できているのだろうか。
| Krafton (韓国・ゲーム大手) |
Nippon Life America (米国・保険) |
英国特許弁護士事務所 (FT取材) |
|
|---|---|---|---|
| AI利用者 | CEO本人 | 保険金請求者 | クライアント全般 |
| AIがやったこと | 契約回避の乗っ取り戦略を生成 | 和解済み訴訟の再開を勧め、申立書を量産 | 特許書類を大量生成 |
| 金銭的影響 | 2億5,000万ドル のアーンアウト |
約30万ドル (約4,770万円) |
固定料金契約の 値上げ検討 |
| 法的帰結 | 契約違反認定 損害賠償フェーズ継続 |
OpenAIを無資格 法律業務で提訴 |
特許新規性喪失 のリスク |
| 共通する構造 | AIが生成した法務作業を、人間の弁護士が時間を使って後始末している | ||
クライアントの視点から見れば、弁護士費用は上がる方向に動いている。Kraftonのように巨額の訴訟に巻き込まれるリスクも加わる。特許の場合は、AI開示によって権利そのものが取れなくなるリスクすらある。
弁護士の視点から見れば、仕事の性質が変わってしまった。Sterling氏はこう書く。「私のチームは今、実際の法務作業を始める前に、クライアントのAI生成戦略を解きほぐして修正するために余分な時間を費やしている」。これは業界横断的な嘆きだ。
OpenAIやAnthropic、Googleのような開発元にとってはどうか。Nippon Life訴訟の帰趨次第では、「一般情報の提供」と「無資格法律業務」の境界線を裁判所が引き直す可能性がある。OpenAIは2025年10月29日に利用規約を改定し、ライセンスが必要な分野での個別アドバイス提供を禁じたが、Nippon Lifeはその改定を「問題が予見可能だったことの証拠」として使っている。
・ ・ ・
唯一明確に得をしているのは、こうした事例を研究する法学者と、AI関連訴訟を専門とする新興の法律事務所くらいかもしれない。
Sterling氏の結論は穏当だ。AIを法律に使うべきではない、とは彼も言わない。弁護士自身もリサーチの加速や文書作成の補助に日常的にAIを使っている。
問題はツールと代理人を混同することだ。AIは、より良い法的質問を組み立てるために使うべきで、答えそのものを出させるためのものではない。
ルールは誰のためにあるのか
技術を人間の文脈に戻してみよう。法律という制度は、ある種の「遅さ」と「面倒くささ」を内蔵している。契約書の条項を読み解くのに何時間もかかるのも、判例を積み上げて議論を組み立てるのも、相手方の出方を予測して備えるのも、すべて「人間の判断には時間が必要だ」という前提で設計されている。
AIはその遅さを圧縮できる。ドキュメントを瞬時に要約し、類似の判例を数秒で引っ張ってくる。だがその圧縮の中で、何かが抜け落ちている。自分の言葉に責任を取る主体がいないのだ。
KraftonのKim氏に助言したChatGPTは、裁判所に呼び出されて証言することはない。Nippon Life訴訟で生成された20件の申立書を書いたAIは、どの州の弁護士会にも登録されていない。特許書類に新規性を喪失させる開示を促したチャットボットは、そのクライアントの権利消滅について何の責任も負わない。
責任を取らないものに判断を任せる。それが問題の核心だ。技術の話というより、誰が後始末をするのかという話だ。
・ ・ ・
節約のつもりで呼んだAIが、請求書を分厚くしている。半年後にこの記事を読み返したとき、答えが出ているだろうか。
参照元
- Financial Times - Clients' barrage of AI-generated queries risks pushing up lawyers' fees
- Inc. - Think ChatGPT Can Replace Your Legal Advice? Think Again (Ken Sterling)
他参照