フォロー

stable-diffusion、Macで動作するプルリクも進んでいるようなので、自分のMacで動作させるの楽しみです

github.com/CompVis/stable-diff

M1 Max 32GPUで30秒くらいで生成できるっぽい

github.com/CompVis/stable-diff

やった!ついにM1 Max Macbook ProでAI画伯(stable-diffusion)動いた!

GPUもがんがん使ってくれている!

M1 Max 32core 64GB で200秒くらい
モデルはstable-diffusion-v-1-1-original

この手順でいけると思う

zenn.dev/ktakayama/articles/6c

ただし、なぜかimwatermarkの読み込みで失敗するので、tet2img.pyでimwatermarkを使わないようにコード改変した

メモリは21GB位使ってた

ユニファイドメモリのAppleSilicon強い

> なぜかimwatermarkの読み込みで失敗するので、tet2img.pyでimwatermarkを使わないようにコード改変した

txt2img.py で修正したのは2カ所

モジュールの依存関係解決できないのちょっと悔しいけどwとりあえず動かす用

自分で環境構築して「無料AI画伯」やるのは、やはりGoogle Colaboratoryで環境作るのが楽ですね

無料プランだと割り当てられるGPU性能に波があるとは思いますが、何回か試した感じだと1枚30秒くらい。

ほぼM1 Max 32Core 64GBと同じくらいのパフォーマンスです

note.com/npaka/n/ndd549d2ce556

僕のM1 Max macbookでimg2img(イメージを入力しての作画)が動作しなかったのですが、実は入力データサイズ(画素数)が問題だったぽい

512x512のデータを入力して無事動作しました

github.com/CompVis/stable-diff

@shinobu あ、何も考えずにM1 Macでビルドしようと思ったら何かうまくいかないのでまだだったんすね😅

@yager cudaを使うようになってるようで、そこでこけるみたいです

@shinobu なるほど、それはM1 Macではダメですね。待ちますw

@shinobu 確か8の倍数でサイズ指定して下さいとマニュアルに書いてありました。
ただ色々試した所、128以下だとあまり意味のある画像が生成されず、縦横768超えるとメモリ使用量が10gb超えるので、512が1番バランス良いようです。

@shinobu みました!営業時間中はできないけどあとで試します。Mac mini 16GBメモリで動くのかが気になってますw

@yager 僕も(無理そうだけど)妻のM2 air 8GBで動くか試してみたいですw

@yager い、、、一応、低容量VRAM用のモデルがあるみたいですww

ログインして会話に参加
グルドン

Mastodon は、オープンなウェブプロトコルを採用した、自由でオープンソースなソーシャルネットワークです。電子メールのような分散型の仕組みを採っています。