新しいものから表示

僕のM1 Max macbookでimg2img(イメージを入力しての作画)が動作しなかったのですが、実は入力データサイズ(画素数)が問題だったぽい

512x512のデータを入力して無事動作しました

github.com/CompVis/stable-diff

スレッドを表示

チャーハンくいてぇぇぇぇ!🍚

課金を気にせず制作できる環境(Colab or ローカルのMac)を作ったので、「背景の抽象画みたいなやつをAIに描かせようかな」と思いましたが

CC契約内で使えるAdobe Stockでイイ感じのやつが30秒で見つかったのでそっちを使った

「Adobe Stockでいいじゃん」という話ではなくて「しょせん僕が想像できる範囲のクリエイティブは誰かが既に作ってるw」って思いました

スレッドを表示

明日公開予定のvlogのサムネ作った
背景はAIが描いたっぽいけど、背景も写真のフレームもAdobeStockから

「'あそこと"ここ"と"あれの"シーンを使ってポラ風のフレーム使ってサムネ作って」ってDaVinciにお願いしたらこれが作成されたら最高

でもPremiere Pro(or Photoshop)あたりに実装されるのは時間の問題ですよね

桑島智輝(安達祐実の夫)の写真展に行ってきた
めちゃくちゃ良かった

2フロア3部屋の展示で数もかなり多いです

bookandsons.com/blog/distance.

スレッドを表示

発売前のレンズも見てきた

15-30はテレ側が35mmだったらなー

スレッドを表示

百々親子と木村伊兵衛の展示を品川のキヤノンで見てきた

百々親子、3人の展示はかなり見応えがあって良かったです

自分で環境構築して「無料AI画伯」やるのは、やはりGoogle Colaboratoryで環境作るのが楽ですね

無料プランだと割り当てられるGPU性能に波があるとは思いますが、何回か試した感じだと1枚30秒くらい。

ほぼM1 Max 32Core 64GBと同じくらいのパフォーマンスです

note.com/npaka/n/ndd549d2ce556

スレッドを表示

> なぜかimwatermarkの読み込みで失敗するので、tet2img.pyでimwatermarkを使わないようにコード改変した

txt2img.py で修正したのは2カ所

モジュールの依存関係解決できないのちょっと悔しいけどwとりあえず動かす用

スレッドを表示

ほんの少しの訓練というか気付きで、「撮影者から被写体へ向けている眼差し」を感じ取ることができるのが写真鑑賞の楽しみでもあると思います

逆に自分の好ましくない「撮影者の眼差し」に気がついてしまうこともあります

さらに情報量の多い動画であれば写真よりももっとそう言った「撮影者の眼差し」が含まれているので面白くもあり怖いところです……

mstdn.guru/@stun/1088752545187
mstdn.guru/@okita/108875425936

メモリは21GB位使ってた

ユニファイドメモリのAppleSilicon強い

スレッドを表示

この手順でいけると思う

zenn.dev/ktakayama/articles/6c

ただし、なぜかimwatermarkの読み込みで失敗するので、tet2img.pyでimwatermarkを使わないようにコード改変した

スレッドを表示

GPUもがんがん使ってくれている!

M1 Max 32core 64GB で200秒くらい
モデルはstable-diffusion-v-1-1-original

スレッドを表示

やった!ついにM1 Max Macbook ProでAI画伯(stable-diffusion)動いた!

スレッドを表示

MidjourneyなどのAI画伯への人間の最後の反抗が、我々が長年続けてきた「スタバなう」とつぶやいて関係ない画像’をアップロードし続けるレジスタンス活動なんですよね!(狂った教師データを与える!)

人類は負けないぞ!🍻

mstdn.guru/@shinobu/1080951373

スレッドを表示

ネガフィルムが半年以上カメラに入ったままなので、消化のためにF3持ってきた

動画撮れない!

古いものから表示
グルドン

Mastodon は、オープンなウェブプロトコルを採用した、自由でオープンソースなソーシャルネットワークです。電子メールのような分散型の仕組みを採っています。