新しいものから表示

これまた2017年春の花見の時に飛ばしたドローンのデータから抽出したものですが、ちゃんとドローンの軌跡を推定しているのが面白い

過去に飛ばしたドローンの動画(これは2017年2月)からでも、結構、再現できる

現実的なサイズになりました。
しかしオキュラスホームの中からtoitするの大変

昨日からの進捗として、テクスチャ付でOculus Homeに持ってこれたのですが暗いですね。
何か属性設定的なものが要るのか。。。

あとデカイ

そして、スーパー北上さまもフォトグラメトリソフトの扱いが少しずつ分かってきたのでブラッシュアップ

インプットとなる画像を増やし、不要な部分を削除することで計算量の削減
初トライ時より変形や欠損が減ったと思います

そして、Bromptomも3D化 

同様に、庭に置いたBromptonを、いつものa7R iii + SIGMA 40mm F1.4 Artの組み合わせで、四方八方から撮影

特徴点を抽出し、高密度点群の生成

元々の撮影画像からテクスチャ付メッシュの生成

同様にBlenderに読み込み、光源を仮設定

というところまで進めたところ

フォトグラメトリの実験の続き 

今度は、ドローンでポイント・オブ・インタレストモードで実家の前の畑を中心点として旋回し撮影
その中からLite版の制限である500枚を視点が一周する分程度選択し、特徴点の抽出からテクスチャ付メッシュの作成まで
そして、それをBlenderに取り込んで、とりあえずライトの仮設定を行ったところ

ここから先はBlenderの勉強ですね。まだ良く分からない~

カメラ三人会の収録終わり
そして、まだ飲み会が続いてる?

3DF Zephyrからobj形式でエクスポートして、それをBlenderで読み込み、Oculus Homeで読み込める形式でエクスポート
テクスチャデータも消えちゃってしますが、北上さまがOculus Homeにやってきた!

ミートアップ中に、こっそり3df Zephyr Lite版を
3Dモデル生成のインプットイメージが50枚 → 500枚になりました。
計算量も大変なことに。。。

ライブを横目で見ながら計算計算
畑のビニールハウスやキャベツも3D化

製品版、買っちゃおうかな。。。 

これは凄い。。。
写真で被写体の周りから何枚も撮るより、ドローンで一定速度で動かした動画から、一定フレームレートで切り出した静止画の方が、トータルで計算量が少ない気がします。
特徴点の抽出が、よりスムーズになるのかな

これは面白い。。。 

free版で試しているので、入力に使える画像が50枚分までなのですが、かなり良い感じに。。。

おおおお。。。
面白いものが出来そうな予感。。。

さて。。。
フォオグラメトリの本命に手を出してみる。。。

テクスチャデータは、こんな感じになっているらしい

3D 北上さまの元ネタになった写真たち
特徴点抽出が行いやすいよう、背景はあえてごちゃっと。。。
いえ、散らかっているだけです。。。

ワイヤーフレーム表示
特徴点が抽出しづらい、まん丸い後頭部が欠けてしまったのが可哀そう

古いものから表示
グルドン

Mastodon は、オープンなウェブプロトコルを採用した、自由でオープンソースなソーシャルネットワークです。電子メールのような分散型の仕組みを採っています。