Nikon ZRでカッコいい動画を撮るための簡単ガイド
メモリーカード(超重要!):CFexpress Type B(512GB以上、推奨2TB)、
変NDフィルター(PolarProおすすめ)、
Rode VideoMic GO II+ ふわふわ風防、
LUTファイル(Nikonダウンロードセンターから無料、Medium #2推奨)、
形式: R3D NE RAW(6K/60p)かH.265(軽め)。解像度: 4K/25fps(ゆったり映画風)、
モード: M。これで本格的だけど、露出自動じゃないよ、
シャッター: 180°アングル(1/50秒、動きがふんわり)。
絞り: F2.8(背景ぼかし)〜F5.6(全体クッキリ)、
ISO: ベース800固定(暗いとノイズ出にくい)。変NDは必須。
色味: Log3G10(編集で色いじりやすい)。
LUT: REDWideGamutRGB(画面で本番色見える)。
音の設定:32bitフロートオン。風切りオフ、指向性ワイド。外部マイクオンで即接続。
Fnボタン: 露出スイッチに。
分かりやすく、Nikon ZRを使うといろんなものが劣化するのが分かる動画。
素人向きの操作にならないのか、ZRを使ってない動画と音声が、一番いい。ワンオペむずい。
ジャンクデータがAIの推論能力を低下させ、一度それで学習すると不可逆的になる。
(人間も同じ。)
https://youtu.be/zoJ6K062x9c?si=yAURxqZkd1ls7k1J
え??
元Jリーガーの名良橋さん、やせたね。
https://youtu.be/DITH-LrJFtc?si=1O9z2MPUKPElWeT-
日本人youtuberで、ひろゆきさん化してる人が増えてきた。
この動画も、滑舌良く、NY市長選挙について話してるけど、そもそも実質の市長選挙になる直近の民主党代表選挙時に話すわけでもないし、党大会や選挙活動取材してないし、選挙人の意見を聞いてもいないし。一時情報も見てないし。
https://youtu.be/ot062pAjlBs?si=baDxj3JHRZSyWsXo
え!!!!
こんなに刺青れまくったの?Maroon 5
まじ!!
Google Flowでワンクリック!ミュージッククリップ制作
プロンプトは
"She sings HipHop"になります。歌詞やリズムは勝手に作られるようです。
https://youtu.be/xfzEUVHmIHQ?si=QdcWZRfa0s4t15lM
Musk氏が特に熱く語ったのが、整数(integer)ベースのシステムの採用です。浮動小数点(floating-point)演算ではなく、Teslaは推論(inference)の大部分を整数演算にシフト。これが「論理ゲートのようなシンプルさ」で、電力効率とシリコン効率を根本的に高める鍵だと説明しました。整数演算は浮動小数点より効率的ですが、整数推論向けのトレーニングが必要で、Teslaはこれを独自に実装。「これはニッチな技術的詳細だが、非常に重要だ」と付け加え、AI5を「素晴らしいチップ」と自画自賛していました。
「AI5は軌道に乗った。AI6への移行でさらに加速する」と楽観的で、チップ設計に没頭するあまり「チップの夢を見るほどだ」とジョークを飛ばしました。
https://www.youtube.com/live/VGPlvmMjPtE?si=qual6aA77lN7rgVP
明日に秋葉原で清水さんに会える人、「vision pro」はまだ日常で使ってますか?って、聞いてほしい。
販売延期で世界のPCゲーマーが泣いた、GTA6。
GTAゲームの累計販売本数が、日本のゲーム会社のものと一桁違う。
アメリカは日本よりもゲーム大国で、それを支えるロックスターゲームスの歴史。
なるほど。
Waymoの日本テストはホストのHannah Fryが「I’m thinking you’re doing some testing in Japan at the moment, aren’t you?」と質問した部分で触れられています。
https://youtu.be/2t2pMtJGv6k?si=_011MRZwoLgaHV3z
Waymo運転を「視覚と動きの会話」としてモデル化。
車は相手の「次の行動」を予測するんだ。「この車は進みそう」って思ったら、少しだけ進んで「私の番だよ」ってシグナルを送る。小規模介入(tiny action)って呼んでて、例えばハンドルを0.1度だけ曲げて、相手に「譲る気ないよ」って伝える。信念を更新しながら、相手の反応を見て調整。動画では「この車が進んだら止まる、止まったら進む」って例で、会話みたいにループするって言ってる。これでスタレメイトを避け、流れを回復するよ。実際のテストで、何度もシミュレーションして磨いてる。
へー。
Waymo車内のAIは、スペースや電力が限られてる。まずGoogleの巨大サーバーのスーパーAI(先生AI)を使い、数百万マイルの走行データやセンサー情報を基に、「理想の行動」を生成する。
これを「正解ラベル」として保存。数百万のこんなシナリオを事前に作っておく。
今度はWaymo車内の軽量AI(生徒)をローカルで訓練する。これはWaymoのラボで、車をシミュレーターに繋いだ状態でやる。(シナリオデータは車内ローカルに持ってくる)生徒AIにセンサー情報(データ)を投げて、予測を出させる。
生徒の出力(予測)と先生の正解ラベルを比べて、「どれだけずれているか」を数値化し、この誤差値を基に、生徒モデルの内部パラメータを少しずつ変える。
新車内AIは、実際の運転も含めて、常にローカル運用。
backspace.fm大好き