今度こそ解った気がする! chunk長とinputするあオーディオファイル長を揃えてるのがむしろ災いの元だったっぽ

“Audio file must match chunk size”❌ No — you can load long audio, chop into chunks
“Longer chunk = richer result”⚠️ Only if your model is large enough to handle it
“Short chunks repeat less”✅ They do — because they’re easier to diversify

スレッドを表示

相変わらずchunk長くらいのパターンが延々繰り返されるトラックになっちゃう。chunk長が2秒が長すぎなんて指摘だれたけど、短くしてパターンなんか学べるの?

スレッドを表示

とやってる間に鈴木たかのり氏らの「いちばんやさしいPython機械学習の教本」を開いてみてるけど、sklearnの学習済モデルをpickleで保存したりしてるな・・やっぱpickle使えるのか

スレッドを表示

「だから、さっきそう言っただろ!」的にキレないとこが有り難いね。多分以前に指摘されてる解決法なのに、その時点では何を言われてるのか不明だったからな

スレッドを表示

ノートを閉じそうになって思いついたコトを聞いてみた。結果としては「ターゲットのキーワードに紐づけるwavを一度にある程度の個数用意しといて、追加学習の際に新規追加や撤退させるのを微細な変化にしてやれば、リセットされちゃわない」っぽ

🧠 Keep all your previous training files

🆕 Add just one or a few new .wav files each session

✅ Continue training "niri" using the full list every time

You’ll build up "niri" as a flexible but consistent style — a real sonic persona.

それで

This is basically doing cumulative learning, also called continual fine-tuning.

となるらしい

スレッドを表示

異なる キーワードに対応したコンセプトをブレンドする策も学んだけど、コレも何か違うな。ファイル名を変えても同じキーワードに学習させる内容が大幅に変わると、それ以前の学習を忘れちゃうってのはイタい。「猫人間」を「猫」と「人間」を個別に学習させた混ぜた結果にしたいのにな

スレッドを表示

続きをchatgptのほうに説明してもらったら

A Different File With the Same Name

The model assumes it's seeing the same "concept"
→ But now the content is different (e.g. yin.wav was soft before, now it’s harsh)
→ The model says “oh! I must have misunderstood this keyword”
→ It adapts to fit the new version, and forgets the old one

This is catastrophic forgetting — classic in small models.

小さなモデルに生じがちなカタストロフィック忘却に陥るんだと?

スレッドを表示

えー! そんじゃ最初にcpt読み込ませてる意味が分からん・・追加教育出来ないの? ってトコでclaudeのchat長制限来たw

Always include ALL your source files in the files list when training. If you want to add new files later:

# Include both old AND new files files = ["yin.wav", "yang.wav", "new1.wav", "new2.wav"]

This explains perfectly why your model keeps generating the same patterns - it's literally forgotten everything except the last training session! You need to retrain with all files together to get the mixed, varied output you want.

かと思えば、こんな格闘してる人も。イミュータブルなトロが流行って来てるのとも、関係有るのかな?

youtu.be/9D_WV6ovhPY?si=G17ww2

スレッドを表示

目下の支配的なOS達がAIプロンプト・メインの新潮流OSに凌駕される時代が来るとして、開発者はそのチャット窓からartifactみないなモードに入れたりコマンド打てたりしたら、結構アウフヘーベンだな

スレッドを表示

MSLだと言ってるけど、元々ほぼunixなターミナルが有るのに、こういうのが必要になる場面が有るのか。普及すると、いよいよlinuxは各種プロプラな帝国の中を旅するジプシーとその宗教みたいな存在になって行くのかなぁ

Apple Releases 'container' Tool for Linux VMs youtube.com/watch?v=K6ymWgd8Nk

日本語ヘンだったw コントロールセンターにAI系ショートカットを並べた

スレッドを表示

iPad10ではローカルAIの未来は無い(ホントはもっとオモチャっぽいのに来て欲しい)ので、雲系サービスのタダ乗りに徹するためにも、gemini,chatgpt,raycast関連をraycastにブチ込みまくった

スレッドを表示

やっと本気でiPad10使う気になってコントロールセンターなどを調べてるけど、splitviewボタン追加出来ないのは10だから?後、画面録画は有るのに、スクショボタンは無いの? あと、早速spotlightにAIフィーチャは10には来ないの?と聞いたら、時期は遅れるけど来るかのような返事だったな

スレッドを表示

ひーw 自分は最近存在を知ってraycastをiPad10に入れたトコだけど、leoは「ソロソロraycast捨ててspotlightに移行する時かね」みたいに言ってる。コメンテーターによると、shortcutはMLとの準備出来てるしmacbookが持ってるspotlightの強みがiPadに来るのも時間の問題と。ま、10では力不足なんだろから、あるバージョンのraycastにしがみつくので当面イイのかな?

This Week in Tech 1036 youtube.com/live/PER27quOk48?s

「6割超の人は、offを選べないAI機能が付いたデバイスは使わない・・という調査も」
This Week in Tech 1036 youtube.com/live/PER27quOk48?s

pinokio、ollamaで行こうと敬遠してたけど、確かに簡単そ

※期間限定無料配信【LMStudio編】ローカルLLMの選択肢と使い方を解説!【無料で使い放題!】 youtube.com/watch?v=l9qpjEbYIH

古いものから表示
グルドン

Mastodon は、オープンなウェブプロトコルを採用した、自由でオープンソースなソーシャルネットワークです。電子メールのような分散型の仕組みを採っています。