なるほど。
Waymoの日本テストはホストのHannah Fryが「I’m thinking you’re doing some testing in Japan at the moment, aren’t you?」と質問した部分で触れられています。
https://youtu.be/2t2pMtJGv6k?si=_011MRZwoLgaHV3z
Waymo運転を「視覚と動きの会話」としてモデル化。
車は相手の「次の行動」を予測するんだ。「この車は進みそう」って思ったら、少しだけ進んで「私の番だよ」ってシグナルを送る。小規模介入(tiny action)って呼んでて、例えばハンドルを0.1度だけ曲げて、相手に「譲る気ないよ」って伝える。信念を更新しながら、相手の反応を見て調整。動画では「この車が進んだら止まる、止まったら進む」って例で、会話みたいにループするって言ってる。これでスタレメイトを避け、流れを回復するよ。実際のテストで、何度もシミュレーションして磨いてる。
へー。
Waymo車内のAIは、スペースや電力が限られてる。まずGoogleの巨大サーバーのスーパーAI(先生AI)を使い、数百万マイルの走行データやセンサー情報を基に、「理想の行動」を生成する。
これを「正解ラベル」として保存。数百万のこんなシナリオを事前に作っておく。
今度はWaymo車内の軽量AI(生徒)をローカルで訓練する。これはWaymoのラボで、車をシミュレーターに繋いだ状態でやる。(シナリオデータは車内ローカルに持ってくる)生徒AIにセンサー情報(データ)を投げて、予測を出させる。
生徒の出力(予測)と先生の正解ラベルを比べて、「どれだけずれているか」を数値化し、この誤差値を基に、生徒モデルの内部パラメータを少しずつ変える。
新車内AIは、実際の運転も含めて、常にローカル運用。
YouTuberに商品提供が来るぞ!
神ゲームしか作れない、ゲーム会社。
backspace.fm大好き