AIで10倍速く書ける、10倍の後始末をしながら——大手テック企業が明かした現実
AIは仕事を奪うのではなく、別の仕事を生み出している。その「別の仕事」がどれほど厄介か、まだ多くの人は気づいていない。
効率化が生む逆説
ノースカロライナ州ダーラムで開催されたAll Things AIカンファレンスで、Netflix、Meta、IBMのエンジニアたちが口を揃えた言葉がある。「AIは準備に手間がかかる」。
3,400人以上が参加したこのイベントで繰り返し引用されたのがジェボンズのパラドックスだった。1865年、イギリスの経済学者ウィリアム・スタンレー・ジェボンズが発見したこの逆説は、蒸気機関が効率化されればされるほど、石炭消費が増加するという現象を指す。
効率が上がると、コストが下がる。コストが下がると、用途が広がる。用途が広がると、総消費量が増える。AIコーディングでもまったく同じことが起きている。
「AIは仕事を奪わない。むしろ増やす」という楽観論の裏側に、この逆説が潜んでいる。増えるのは「仕事」であって、必ずしも「雇用」ではない。
NetflixのUIアーキテクト、ベン・イレグボドゥは自身の働き方をジェボンズのパラドックスそのものだと表現した。1つのエージェントに機能実装を任せている間に、別のエージェントに次のタスクの下準備をさせる。さらに別のエージェントがそれらを監視する。
3つのエージェントがいないと回らない
イレグボドゥが「敵対的コードレビュー」と呼ぶ手法がある。タスクを自動化するエージェントを1つ作ると、その成果物を評価する2つ目のエージェントが必要になる。評価の観点を細分化し、複数のエージェントに役割分担させることもあるという。
そして3つ目のエージェントが、最初の2つを調整する。
「自分自身を並列化している」とイレグボドゥは言う。AIのおかげで、彼はPython、Bash、Groovyなど、習得していない言語でもコーディングできるようになった。だが代償もある。
「1日の終わりには疲れ切っている。結局、一日中ずっと何かと話していたわけだから」
AIと人間の協働は、会話の連続だ。キーボードを叩く時間は減った。しかし指示を出し、結果を確認し、修正を依頼する時間は増えた。「仕事量」は減っていない。
「コンテキストの腐敗」という病
Metaのデベロッパーアドボケイト、ジャスティン・ジェフレスは別の問題を指摘した。AIを熱心な新人エンジニアに喩える人は多い。やる気はあるが経験が浅い。だが決定的な違いがある。人間の新人は情報過多で混乱するが、AIは何でも飲み込む。
この「底なしの食欲」がコンテキストの腐敗を引き起こす。
「対話が長くなればなるほど、計算すべき情報が増える。注意を奪い合う要素が増えれば増えるほど、正しい答えから遠ざかる」
曖昧な指示は散漫な結果を生む。だから「コンテキストエンジニアリング」が必要になる。AIに渡す情報を吟味し、ルール、ツール、スキルを体系化する。さらに「プロンプトチェーン」で作業を段階的に指定する。
準備に時間をかければ、実行時の心配は減る。浮いた時間で開発者はビールを飲みに行ける——冗談だ。実際には、並列で走る複数エージェントの調整に充てる。
ジェフレスはパレートの法則にも言及した。AIは仕事の80%をこなす。残り20%は人間が片付ける。だがその20%のうち、80%はまたAIができる。そしてその残りの20%のうち——終わりのないフラクタル構造が続く。
「願望プロンプティング」では通じない
IBMの言語・マルチモーダル技術ディレクター、ルイス・ラストラスは、AIが期待通りに動かない原因を開発者の側に求めた。それは「分解」のスキル不足だという。
「お願いだから幻覚を見ないで。私のキャリアがかかっているんだ」とプロンプトに書いても意味がない。呪文を唱えて効果を祈るようなものだ。
ラストラスはこれを願望プロンプティングと呼ぶ。代わりに必要なのは、複雑なシステムを構成要素に分解し、モジュール化し、それぞれに専門家を割り当てるエンジニアリングの基本だ。
IBMが公開したオープンソースライブラリMelleaは、この分解を支援する。LLMにPythonコードで具体的な指示を与える「キーパターン」を提供し、出力の構造化、有害コンテンツの検出、スキーマ準拠などを可能にする。
IBMはさらに、タスクに応じてLLMを切り替える「switch brains」機能も開発中だ。研究によれば、小型でドメイン特化したモデルに推論時間を多く与えると、大型汎用モデルを上回る結果を出す。
指示より制約、制約より権限の剥奪
Intuitのシニアデベロッパー、ジャスティン・チャウはより根本的な問題を突いた。
「暗黙の前提は技術的負債だ。私たちにとって当然のことが、機械にとっては当然ではない。結果に対して極めて具体的でなければならない」
チャウの助言は意外なものだ。AIには「指示」より「制約」を与えるべきだという。LLMは、より良い方法があると判断すれば指示を無視する。しかし「絶対にHTMLを使うな」という制約は破りにくい。
さらに強力なのは、そもそも権限を与えないことだ。
「GitHubへのアクセス権を与えなければ、絶対にGitHubには触れない」
ダグラス・アダムスの『銀河ヒッチハイク・ガイド』に登場する「ディープ・ソート」を思い出す読者もいるだろう。宇宙最強のコンピュータは「生命、宇宙、そして万物についての究極の疑問」の答えを求められ、数百年の計算の末に「42」と答えた。そして人類は、何が「究極の疑問」だったのかを調べるために、さらに巨大なコンピュータを作る羽目になった。
準備という名の新しい労働
AIは私たちの仕事を代替するのではなく、新しい種類の仕事を要求している。それはプロンプトの設計、コンテキストの整理、出力の検証、エージェント間の調整——かつて存在しなかった準備作業だ。
シンギュラリティが人類を奴隷化する前に、私たちはAIの世話係として日々を過ごすことになる。
参照元
関連記事
- Reddit最大のプログラミング板がLLM話題を全面禁止
- YouTube CEO「クリエイターは家を離れない」は本当か
- バイブコーディングが最初に生むのはコードではなく「自信」
- OpenAI、州司法長官にマスク氏の調査要請 泥仕合は新局面へ
- Claude Code劣化問題、AMDのAI責任者が膨大なログで告発
- Netflix発のAIモデル「VOID」が映像編集の常識を書き換える
- ソフトウェアエンジニア求人が3年ぶり高水準、AI脅威論の死角
- AIの答えを疑えない人が7割超──「認知的降伏」研究の衝撃
- ザッカーバーグが20年ぶりコード復帰、使うのはClaude Code
- Copilot「娯楽目的限定」——MS利用規約が語る矛盾