フォロー

ということで海外の型からTwitterで教えてもらった情報を基に、色々実験が出来ました。

元々は、
Boosting Monocular Depth Estimation Models to High-Resolution via Content-Adaptive Multi-Resolution Merging

」コンテンツ適応型マルチ解像度マージング(という手法)を用いた、単眼高解像度画像からの深度推定によるぶースティング(改善?)」というGitHub上の研究らしいのですが、いやぁ、色々なことを考えている人がいるんですねぇ。。。

github.com/compphoto/BoostingM

しまった訳し方、というか理解の仕方を勘違いしてました。

「Boosting Monocular Depth Estimation Models to High-Resolution via Content-Adaptive Multi-Resolution Merging」というやり方を実現するために、MiDaSやLeResという手法を使って、Multi-Resolutionのデプスマップを生成しよう、というものなのか。
いずれかの手法で、複数解像度から得られたデプスマップをMergingすると、より精度の高いデプスマップが得られるよ、というものが、より正しい理解のように読めてきました。

となると、単独のMiDaSやLeResの結果も知りたくなるな。。。

@shingo1228 さん
今日は朝から勉強になりました。本当に色々な事を研究されている人が多いですね。情報ありがとうございます。

@shingo1228 検証お疲れさまでした~
私も検証してみたいですがGitHubの英語の説明だけだとちょっと敷居が高いですね~
せめてGoogle AIの時の解説くらいの誘導があれば入れれると思うのですが~
お時間ないとは思いますがざっくりnoteに書き起こしてあればありがたいです~

ザバイオーネさんあたりにリンクを流せばルキグラ界隈の人に拡散できると思います。

あ、シンゴさんの生成データもちょうだいしていいですか?
結果が見たいですw

@skawa 取り急ぎ、生成してLooking Glass Portraitに取り込めるデータは、こっちにどんどん突っ込んでいってます~

mstdn.guru/@shingo1228/1068378

ログインして会話に参加
グルドン

Mastodon は、オープンなウェブプロトコルを採用した、自由でオープンソースなソーシャルネットワークです。電子メールのような分散型の仕組みを採っています。