新しいものから表示

「AIディバイド / 今を生きる子供にとって必要なものを与えられているか」

僕の周りでVibe Codingを絶賛している人たちは総じてお金を持っている人ばかりだ。今、自由に使えるお金を持ってない人や、AIに対する感度が低い人は、圧倒的に損をしている。

タイトルとは違って、お金がない子供向けの記事になっていない・・・。
note.com/shi3zblog/n/nb2313d63

ビアギークなら一度は訪れたいサンフランシスコのビールの聖地、それがビアパブ Toronado だ。レアで素晴らしいセレクションのビールが飲める場所。食事は持ち込み可能なので近辺のレストランでテイクアウトし、Toronado でレアなビールを飲むべし。
note.com/ibubeer/n/n40ab78424b

rabbit r1のマジックカメラは、一部のアナログ好きなオシャレさん界隈で、人気。
youtu.be/SCICYF8ml8g?si=kjgVR7

トルコと韓国以外の国からも、卵を輸入する方針のアメリカ。

youtu.be/vIA9ON3ZE0g?si=j1xQqP

"It Might Be Time for Me to Collect Some Being Right Points for My 2023 Bluesky Prediction"

ソーシャルメディアの未来について深く考えさせられました。
楽観的な視点と、冷静な分析がバランス良く組み合わさっている点が興味深かったです。
daringfireball.net/2025/03/blu

"Something Is Rotten in the State of Cupertino"

By JOHN GRUBER

記事全体を通して、Appleの現状に対する著者の懸念と、かつてのAppleの卓越性への郷愁が感じられる。

daringfireball.net/2025/03/som

なかなか良い物書きをするじゃないか、Qwen-2.5 MAX

物語を書くのはいいかもしれないけど、難しいAIコーディングや数学は、ローカルLLMだと厳しいかもしれないね。

* **Simple Math Benchmark**:
* Llama 3.2 1 billion: 18正解, 12不正解 * Llama 3.2 3 billion: 高い精度 * Falcon 3 54: 全て正解 * Qwen 2.5 coder 32 billion: いくつか間違いあり

* **Typer Command Benchmark (難易度の高いタスク)**: *
ほとんどのローカルモデルが0%の精度 * Deepseek V3: 26%の精度

youtu.be/OwUm-4I22QI?si=iyPg1q

松尾さんや清水さんは、散財小説でのM3 MAX Macbook proでのローカルLLM運用に、全力で反対されないのかな?

清水さんのnoteによると、大事なのはVRAMの容量なはずなので、m3 maxが100GBあっても、やっぱりultraにしておけとかならないのかな?

開発者以外の人々から初めてVibeコーディングに関する会話が出てきています。これまで何も構築したことがない人々が初めてVibeコーディングについて尋ね、「どうすれば何かを作成し、自分のソフトウェアやツールを構築できるのか」と言っています。

このVibeコーディングの概念は非常に大きくなると思います。アイデアを明確にするために開発者に依存していた多くの人々が、自分でそれを行うことができるようになるからです。
youtu.be/OFgIiDQAoYg?si=51M57Y

言え!言え!

-Appleのセカンドムーバー戦略の限界
問題は、このセカンドムーバー戦略はハードウェア戦略であることが多いということだ。しかし、AIは違う。企業は可能な限り迅速にイテレーションを繰り返し、オンデバイスモデルでできる限りの機能を実装し、それを公開しようとしている。

- Apple Intelligenceの遅延と機能の不完全さ
彼らは作成して公開したコマーシャルを削除しなければならなかった。それは、まだ存在しないSiriの大きなアップデートの新機能を宣伝していたからだ。
youtu.be/hz6oys4Eem4?si=PbYEmv

”単純に計算能力を増大させることである”。

AI分野においても、我々は未だに真に教訓を学んでいないようである。人間が考える思考様式を強引に組み込むことは、長期的にはうまくいかないのである。

この「苦い教訓」は、以下の観察に基づいている。
1.AI研究者は常に人間の知識や経験をAIに詰め込もうとする。
2.この方法は短期的には確かに効果があり、研究者に達成感を与える。
3.しかし遅かれ早かれ、ボトルネックに突き当たり、AIの進歩を阻害することさえある。
4.真のブレークスルーは往々にして予想外の形で現れる。それは、単純に計算能力を増大させることである。
incompleteideas.net/IncIdeas/B

Grok3だとメガネもしくはサングラスの有無の判断が、苦手?

なるほど。ローカルLLM運用は、ここがデメリットだね。

Grok3
クラウドLLMは、使用量に応じてスケールアップが可能なため、大規模なプログラムやプロジェクトにも対応しやすいです。Xの投稿では、「クラウドならトラフィック増えてもAPIで対応できる」「ローカルだとメモリ不足で落ちる」との比較がされています。プログラムの運用や拡張性を考えると、クラウドの方が柔軟で便利です。

Grok3質問への回答
「X上で投稿されているメリットとして、ローカルLLMとカーソルの可能性について、その詳細を説明せよ」
x.com/i/grok/share/VCKnOLAZFM4

* **オラマの活用:**
オラマというツールを使うことで、ローカルLLMの環境構築が非常に簡単になったと述べています。ターミナルでいくつかのコマンドを実行するだけで、手軽にローカルLLMを試すことができるようになっています。
* **カーソルとの連携:**
カーソルからローカルLLMを使ってコード生成することも可能になっていると述べています。ただし、現状ではAPIの設定画面を上書きするなどのハック的な方法が必要であることも示唆しています。
* **M3MAX MacBook Proの活用:**
M3MAX MacBook Proを持っているため、ローカルLLMでコーディングすることを検討しています。これにより、場所を選ばずに、高性能なAIプログラミング環境を実現できると考えています。
youtu.be/NsEMzuQxziQ?si=XtG2SC

時間が進むごとに、気温が下がっていく

古いものから表示
グルドン

Mastodon は、オープンなウェブプロトコルを採用した、自由でオープンソースなソーシャルネットワークです。電子メールのような分散型の仕組みを採っています。