Uber、ドライバー車両をAV業界のセンサー網に変える構想
Uberが数百万のドライバー車両にセンサーを載せ、自動運転(AV)企業向けの巨大データ収集網に変える構想を進めている。CTOがイベントで初めて公言した計画は、自動運転を諦めた配車大手が業界の供給ハブとして居座る未来を示す。
Uberが数百万のドライバー車両にセンサーを載せ、自動運転(AV)企業向けの巨大データ収集網に変える構想を進めている。CTOがイベントで初めて公言した計画は、自動運転を諦めた配車大手が業界の供給ハブとして居座る未来を示す。
「データのボトルネック」を握る者が業界を握る
Uberの最高技術責任者(CTO)、プラヴィーン・ネッパリ・ナガ氏(Praveen Neppalli Naga)は、サンフランシスコで4月30日に開かれたTechCrunch主催の投資家向けイベント「StrictlyVC」で、人間ドライバーが運転する車両にセンサーを搭載し、AV企業向けの実走行データを吸い上げる構想を明かした。TechCrunchが5月1日付で報じている。
我々が最終的に向かいたい方向だ。ただ、まずはセンサーキットがどう機能するのかを把握する必要がある。各州が「センサーが何を意味するのか、データ共有が何を意味するのか」を整理することも欠かせない。(StrictlyVCでのナガ氏の発言、TechCrunchより意訳)
慎重な物言いの裏で、Uberが世界に持つドライバー網を「動くデータ収集プラットフォーム」に変える青写真がはっきりと描かれている。
この構想の出発点はシンプルだ。ボトルネックはデータ、と、ナガ氏は見ている。Waymoのような自動運転企業はあらゆるシナリオを集めるために自前で走り回らなければならないが、車両を大量に走らせる資本を持つ会社は限られる。「サンフランシスコのこの学校前の交差点で、この時間帯のデータが欲しい」という発注に応えられるのは、600都市以上で配車サービスを運営するUberの規模感だけだ。
1台のプロトタイプから「数百万のセンサーグリッド」へ
Uberはすでに今年1月27日、ロボタクシーパートナー向けに走行データを集める「AV Labs」という新部門を立ち上げている。ただし当時のTechCrunchの取材では、ヒョンデのアイオニック5にセンサーを文字通り「ネジで取り付けている」プロトタイプが1台ある状態で、エンジニアリング担当VPのダニー・グオ氏自身が「センサーキットが落ちないかどうかも分からない、それくらい泥臭い」と笑っていた。
つまり、4月30日にCTOが明かした「数百万のドライバーをセンサー化」という構想は、AV Labsの自然な延長というよりも、はるかに大きな次の段階の話だ。1月時点で1台しかなかった専用車両を、最終的にはUberアプリで動くドライバー全員の車に置き換える。スケールの桁が違う。
この変化は、Uberが自分たちの強みをどう自覚しているかを示している。2026年3月2日付のUber公式Newsroomで、エンジニアリング・サイエンス担当VPのダニー・グオ氏(Danny Guo)は、自動運転は「データとモデリングの競争」だと明言した。鍵を握るのは、稀でメッシーな現実世界のシナリオから学ぶ能力だ。Uber自身の言葉で言えば、毎時間、何百万もの実トリップが昼夜・全条件で発生しており、それが他社には集められない「ロングテールのAVデータ」を生むという理屈になる。
AV Labsは、データマイニングからシミュレーション、検証、認識・予測・プランニング全体のシステム改善まで、自動運転学習を支えるコア機能を構築する。Uberの規模と現実世界の複雑さを活かし、輸送の未来を加速させる。(Uber Newsroom、3月2日付公式発表より意訳)
自動運転を諦めた会社が、自動運転の「胴元」になる
かつてUberは自動運転車を自社開発していた。共同創業者のトラビス・カラニック氏(Travis Kalanick)は2025年、TechCrunchの取材に「自社のロボタクシー製品を持っていなかったのは大きな失敗だった」と公に悔やんでいる。Uberはテスト車両による2018年の歩行者死亡事故を経て、2020年にこの部門をAuroraに売却し、自動運転車そのものを作る側からは降りた経緯がある。
その後、業界では「AVが各都市に増えるなら、自前のAVを持たないUberはいずれ用済みになる」という見方が根強かった。だが現実には、Uberは別の場所に陣取りつつある。車を作るのではなく、データを売る側へ回るという構えだ。記事によれば、Uberは現在25社のAVパートナーを抱え、ロンドンで運用中のWayve(ウェイブ)もそこに含まれる。Uberは「AVクラウド」と呼ばれるラベル付きセンサーデータのライブラリも構築中で、パートナー各社はそこから必要なデータを引き出せるという。
注目すべきは「シャドーモード」と呼ばれる仕組みだ。AV企業からすれば、自前で車両を出さずに自社モデルを実環境テストできる強力な手段になる。
シャドーモードとは:パートナーが学習させたAVソフトを、Uberの実走行に並走させて影で動かし、もし自動運転だったら何をしていたかをシミュレーションする仕組み。実車を出さずに弱点を洗い出せる。
Uberは「車を出さずに、AV業界の試験場そのもの」を提供しようとしている。
「お金は儲けない」と「100億ドル投資」の二重構造
ナガ氏はイベントで「我々の目的はこのデータで儲けることではない。データを民主化したい」と述べた。同じ言い回しは1月のAV Labs発表でも使われている。だが、この姿勢が額面どおりに続くと素直に信じるのは、おそらく難しい。
なぜならUberは並行して、AV業界の「川上」にも巨額のチップを置いているからだ。ロイターは4月15日、Financial Timesの報道としてUberが100億ドル超をロボタクシー戦略にコミットしていると伝えた。内訳は、AV企業への株式投資に25億ドル超、ロボタクシー車両の購入に75億ドル超とされる。直前の4月14日にはLucid(ルーシッド)への追加2億ドル投資と、3万5000台超への購入拡大が公表された。3月19日にはRivian(リビアン)に対し、最大12億5000万ドルの投資と最大5万台の購入計画も発表されている。中立宣言と巨額出資の二重構造こそが、Uberの現在地だ。
「データを民主化する」という言葉は美しいが、その同じデータインフラの上で、Uberはどのパートナーにどんな粒度のデータを渡すかを決められる立場にある。25社のAV企業がUberの配車網を頼って顧客に届けている以上、データのレバレッジは時間とともに重くなる。一次的には無償でも、エコシステムが成熟したときの値付け権はUberが握っている。
規制とプライバシー、そして「ドライバーのもの」だったはずの車
ナガ氏が慎重に「各州にセンサーが何を意味するか整理してもらう必要がある」と言ったのは、おそらく単なる外交辞令ではない。ドライバーが自分のクルマで稼いでいるという建付けは、Uberがずっとアセットライトな「ギグエコノミー」モデルを正当化するために使ってきた論理だ。そのドライバーの車両に、Uberが望む形でセンサーを取り付け、走行映像をAV企業向けに販売する構造が現実になれば、誰がデータを所有するのかという問いは確実に噴き出す。
自動運転の覇権争いの「土台」が決まる時期
Tesla(テスラ)はすでに数百万台のFSD搭載車から走行データを集めており、その規模ではUberはかなわない。ただし、Uberの強みは「世界600都市から、必要な街を狙い撃ちで配備できる」という機動力にある。1月のTechCrunchインタビューでグオ氏が語ったとおり、パートナーから「この街のこの状況のデータが欲しい」と言われれば、そこにすぐ送り込めるネットワークがすでにある。
ロボタクシーの覇権争いは、車両やAIモデルの性能差で決まるとずっと言われてきた。だが、Uberの構想が示しているのは、勝負の土台はデータパイプラインだという未来だ。自動運転の車を作っているのか、自動運転のための地図を作っているのか、それとも自動運転のための「街そのものの感覚器官」を作っているのか。Uberが選んだのは三つ目で、それは案外、長く効いてくる場所かもしれない。
数百万のドライバーが「AV業界の眼」になる日は、思っているより早く来るかもしれない。
参照元
他参照