なるほど。

Waymoの日本テストはホストのHannah Fryが「I’m thinking you’re doing some testing in Japan at the moment, aren’t you?」と質問した部分で触れられています。
youtu.be/2t2pMtJGv6k?si=_011MR

Waymo運転を「視覚と動きの会話」としてモデル化。

車は相手の「次の行動」を予測するんだ。「この車は進みそう」って思ったら、少しだけ進んで「私の番だよ」ってシグナルを送る。小規模介入(tiny action)って呼んでて、例えばハンドルを0.1度だけ曲げて、相手に「譲る気ないよ」って伝える。信念を更新しながら、相手の反応を見て調整。動画では「この車が進んだら止まる、止まったら進む」って例で、会話みたいにループするって言ってる。これでスタレメイトを避け、流れを回復するよ。実際のテストで、何度もシミュレーションして磨いてる。

youtu.be/2t2pMtJGv6k?si=_011MR

へー。

Waymo車内のAIは、スペースや電力が限られてる。まずGoogleの巨大サーバーのスーパーAI(先生AI)を使い、数百万マイルの走行データやセンサー情報を基に、「理想の行動」を生成する。
これを「正解ラベル」として保存。数百万のこんなシナリオを事前に作っておく。
今度はWaymo車内の軽量AI(生徒)をローカルで訓練する。これはWaymoのラボで、車をシミュレーターに繋いだ状態でやる。(シナリオデータは車内ローカルに持ってくる)生徒AIにセンサー情報(データ)を投げて、予測を出させる。
生徒の出力(予測)と先生の正解ラベルを比べて、「どれだけずれているか」を数値化し、この誤差値を基に、生徒モデルの内部パラメータを少しずつ変える。
新車内AIは、実際の運転も含めて、常にローカル運用。

古いものから表示
グルドン

Mastodon は、オープンなウェブプロトコルを採用した、自由でオープンソースなソーシャルネットワークです。電子メールのような分散型の仕組みを採っています。