昨日覚えた、Google APIを使用したデプスマップ生成の手順で、ポートレート写真のデプスマップを作り直し
LookingGlassの2D⇒3D変換サービスより、自然なデプスマップになっている気がします。
なんとなくコツが分かってきたので
他にも既存の写真や、今撮ったばかりの写真からLooking Glass Portrait用のデータを作ってみました。
解像度高めで作っているので、奥行きやフォーカスを調整したら、少しクロップして納まりの良いアングルで表示させるのがコツかもしれない
もう少し手を加えてみる
生成されたデプスマップごとPhotoshopに読み込み、デプスマップ部分のコントラストやトーンカーブを調整して、更に深度情報にメリハリをつけてみる
なんとなく、より一層、衣服のたなびき具合が自然になったような気がします。
秋葉原で撮ってきたフィギュアの写真をLightroomで色調補正
SPMからGoogle AIを使用したデプスマップ生成
それをLooking Glass Portraitに読み込みフォーカスやクロップなどの微調整
今日の午後を、殆ど一連の作業に費やして、ようやく納得のいくデータ作成のフローが出来てきた気がします。
以下は実際にLooking Glass Portraitに読み込める深度マップ付き画像データ
https://1drv.ms/u/s!Aj5pPz4vGETRhIliDu4Lap5hMZcEig
Pythonやscipy といった関連モジュールをインストールして、Google公開のAPIを使用したデプスマップ生成にも挑戦
結構いい雰囲気でデプスマップを生成してくれますね
単一画像から、ここまでの物を作ってくれるのは、ありがたいなぁ
ただアウトプットの解像度は、もう少し欲しいところ
起動パラメータ等で弄れるのかな?
Google公開のソフトを使った、2D画像からデプスマップの作成
http://stereo.jpn.org/jpn/stphmkr/google/index.html