新しいものから表示

発売前のレンズも見てきた

15-30はテレ側が35mmだったらなー

スレッドを表示

百々親子と木村伊兵衛の展示を品川のキヤノンで見てきた

百々親子、3人の展示はかなり見応えがあって良かったです

自分で環境構築して「無料AI画伯」やるのは、やはりGoogle Colaboratoryで環境作るのが楽ですね

無料プランだと割り当てられるGPU性能に波があるとは思いますが、何回か試した感じだと1枚30秒くらい。

ほぼM1 Max 32Core 64GBと同じくらいのパフォーマンスです

note.com/npaka/n/ndd549d2ce556

スレッドを表示

> なぜかimwatermarkの読み込みで失敗するので、tet2img.pyでimwatermarkを使わないようにコード改変した

txt2img.py で修正したのは2カ所

モジュールの依存関係解決できないのちょっと悔しいけどwとりあえず動かす用

スレッドを表示

@yager い、、、一応、低容量VRAM用のモデルがあるみたいですww

@yager 僕も(無理そうだけど)妻のM2 air 8GBで動くか試してみたいですw

@stun 本当に怖いです、セクシャル感覚だけでは無くて「このカメラマンは被写体を見下しているな」みたいなのも感じ取れたりするので……

そしてそう言う写真に込められた撮影者の感情とか性格はそうそう簡単に隠せないんですよね。怖いw

ほんの少しの訓練というか気付きで、「撮影者から被写体へ向けている眼差し」を感じ取ることができるのが写真鑑賞の楽しみでもあると思います

逆に自分の好ましくない「撮影者の眼差し」に気がついてしまうこともあります

さらに情報量の多い動画であれば写真よりももっとそう言った「撮影者の眼差し」が含まれているので面白くもあり怖いところです……

mstdn.guru/@stun/1088752545187
mstdn.guru/@okita/108875425936

メモリは21GB位使ってた

ユニファイドメモリのAppleSilicon強い

スレッドを表示

この手順でいけると思う

zenn.dev/ktakayama/articles/6c

ただし、なぜかimwatermarkの読み込みで失敗するので、tet2img.pyでimwatermarkを使わないようにコード改変した

スレッドを表示

GPUもがんがん使ってくれている!

M1 Max 32core 64GB で200秒くらい
モデルはstable-diffusion-v-1-1-original

スレッドを表示

やった!ついにM1 Max Macbook ProでAI画伯(stable-diffusion)動いた!

スレッドを表示

MidjourneyなどのAI画伯への人間の最後の反抗が、我々が長年続けてきた「スタバなう」とつぶやいて関係ない画像’をアップロードし続けるレジスタンス活動なんですよね!(狂った教師データを与える!)

人類は負けないぞ!🍻

mstdn.guru/@shinobu/1080951373

スレッドを表示

ネガフィルムが半年以上カメラに入ったままなので、消化のためにF3持ってきた

動画撮れない!

@yager cudaを使うようになってるようで、そこでこけるみたいです

stable-diffusion、Macで動作するプルリクも進んでいるようなので、自分のMacで動作させるの楽しみです

github.com/CompVis/stable-diff

M1 Max 32GPUで30秒くらいで生成できるっぽい

github.com/CompVis/stable-diff

@higo1974j 自分が悪いのに、「グルドン調子悪い?」って疑ってしまいましたww

古いものから表示
グルドン

Mastodon は、オープンなウェブプロトコルを採用した、自由でオープンソースなソーシャルネットワークです。電子メールのような分散型の仕組みを採っています。