2025年04月19日 朝のAIニュースまとめ

(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。

(ほぼ)毎日AIニュースが届きます
ぜひご登録ください

大手各社の新モデル展開と戦略の最前線

OpenAIのo3モデルは高い推論能力を示す一方、応答スタイルに賛否両論が続いています。ChatGPTはMemory機能でWeb検索のパーソナライズを強化し、GoogleはGemma 3の低VRAM最適化モデルを公開。米国大学生向けにGemini Advanced無料提供も始まりました。

一方、MetaがLlama開発資金のために他社協力を求めていると報じられ、xAIのGrok 3 Mini Reasoningは価格性能比で高評価を獲得。AIコーディングツールの進化も続いています。

それでは各トピックの詳細を見ていきましょう。

目次

  1. OpenAI o3モデル、応答の質に賛否両論【続報】
  2. ChatGPT、Memory機能でWeb検索をパーソナライズ【続報】
  3. Google、米国大学生向けGemini Advanced/Notebook LM+無料提供
  4. Gemma 3 QAT最適化モデル公開 低VRAMで高品質実現
  5. Meta、Llama開発資金調達で他社に協力要請か
  6. Grok 3 Mini Reasoning、価格性能比で高評価
  7. AIコーディングツール最新動向: Cursor進化、Codex CLI課題も
  8. LangChain作者、OpenAIのAgent SDKガイドに異論
  9. Kaggle、Googleとの生成AIコースを自習ガイドとして公開

OpenAI o3モデル、応答の質に賛否両論【続報】

  • OpenAIの最新推論モデルo3について、迷路解決能力など高い性能を評価する声がある一方、応答の質に関する議論が続いています。【続報】
  • ユーザーからは、情報密度が高すぎる、行間が読みにくい、ドライな印象、数式表示の不具合といった具体的な指摘が上がっています。
  • 以前のo1モデルの応答の方が自然だったと感じる声もあり、モデルの特性やチューニングに対する好みが分かれているようです。
Torishima / INTP: o3、やっぱ自分よりIQが高いからか文章がしっくり入ってこないことが多い気がする(カスタムインストラクションのせい?)、o1 pro はちょうどいい感じで入ってきたのだが…

asap: めちゃくちゃわかる。 解説の行間が広くなった。 LLMに『わかりやすく説明して』って伝えると、情報量が落ちるから嫌で、o1とかには『理論的に厳密に解説して』って言いまくってたけど、o3は行間広すぎて、『わかりやすく説明して』がデフォルトになってきた。 あとなんか、数式の表記が死ぬこと多い

Chubby♨️: Speechless. o3 left me speechless. https://t.co/wluayeCcKt

ChatGPT、Memory機能でWeb検索をパーソナライズ【続報】

  • 既報のChatGPTのMemory機能が、Web検索結果のパーソナライズにも活用されるようになったと報じられています。【続報】
  • ユーザーの過去の対話履歴に基づき、より関連性の高いWeb検索結果の提供が期待されます。
  • Memory機能とWeb検索の連携による利便性向上に注目が集まっています。
TechCrunch: ChatGPT will now use its ‘memory’ to personalize web searches https://t.co/s9pEf1MWw6

Chubby♨️: Memory + websearch = superpower? (引用ツイート: ChatGPT will now use its ‘memory’ to personalize web searches https://t.co/s9pEf1MWw6)

Google、米国大学生向けGemini Advanced/Notebook LM+無料提供

  • Googleが、米国の大学生を対象に、Gemini AdvancedとNotebook LM+を2026年7月26日まで無料で提供すると発表しました。
  • 教育機関でのAI活用を促進する狙いがあるとみられます。
  • 米国以外の学生への提供拡大も検討中であることが示唆されています。
Logan Kilpatrick: Free Gemini Advanced and Notebook LM+ for US college student, now through July 26th, 2026!! 🔥 https://t.co/eit25mnTJS

Google Gemini App: We're working to bring this offer to students outside the U.S. Stay tuned. (引用ツイート: @flipsuit_ai @ai_for_success @Google @GeminiApp @GoogleDeepMind Working on it - we need to do a few country-specifi...

Gemma 3 QAT最適化モデル公開 低VRAMで高品質実現

  • Googleが、Gemma 3 27BモデルのQAT(Quantization-Aware Training)最適化版をリリースしました。
  • int4量子化により、VRAM使用量を大幅に削減(54GB→14.1GB)しつつ、品質低下を最小限に抑えています。
  • Ollama、Hugging Face、LM Studioなどを通じて、コンシューマー向けGPUでの利用が可能になり、Kaggle Modelsでも公開されました。
Kaggle: Now available on #KaggleModels! Learn more: https://t.co/SSmJxlBxPp (引用ツイート: Run Gemma 3 27B on your desktop GPU 🔥 Our new QAT-optimized int4 models slash VRAM needs (54GB -> 14.1GB) while maintain...

Wolfram Ravenwolf: Yay! This is how it's done if you're serious about supporting open (source) AI. Thanks to everyone involved! 👏 (引用ツイート: Excited to do the full release of Gemma 3 QAT! 🤏New Gemma checkpoints that can...

Meta、Llama開発資金調達で他社に協力要請か

  • The Informationによると、Metaが大規模言語モデルLlamaの開発資金を賄うため、MicrosoftやAmazonなどに協力を求めたと報じられています。
  • AIモデル開発に伴う巨額の計算コスト(Capex)が、Metaのような巨大テック企業にとっても負担になっている可能性を示唆しています。
  • Metaのオープンソース戦略と資金調達の動向が注目されます。
The Information: Exclusive: Meta Asked Amazon and Microsoft to Help Pay for Llama Meta Platforms has sought financial help from Microsoft, Amazon, and others to fund the training of its large language model, Llama. 💰...

morgan —: meta goes cap-in-hand for llama (引用ツイート: the AI capex strain is real: fact that Meta, one of the most profitable firms in the world, asked other companies to help it fund Llama AI model development ...

Grok 3 Mini Reasoning、価格性能比で高評価

  • xAIがAPI提供を開始したGrok 3 Mini Reasoningモデルについて、価格対性能比が高いとの評価が出ています。
  • 一部の分析では、Gemini 2.5 Flash thinkingやo4 mini highといった同クラスの最新モデルと比較して競争力があり、かつ安価であると指摘されています。
  • Grok Web UIの改善(サイドバー表示設定)も報告されています。
Tech Dev Notes: Grok 3 Mini Reasoning is amazing at price and performance! (引用ツイート: Grok 3 mini Reasoning’s recently launched API has highly compelling Intelligence vs. Price positioning @xai has recently launched ...

Tech Dev Notes: Grok 3 mini thinking is competitive with recently released models like Gemini 2.5 flash thinking and o4 mini high in same class but way cheaper https://t.co/98SgCE7NnT

AIコーディングツール最新動向: Cursor進化、Codex CLI課題も

  • Cursor、Codex CLI、DevinなどAIコーディングツールの開発と議論が活発です。
  • Cursorでは二段階処理による改善、Codex CLIではo4-mini対応が進む一方、ターミナル統合の不安定さやdiff形式でのコード出力に課題も指摘されています。
  • Vibe Codingのような新しい開発スタイルや、AIエージェント開発全般の効率性とリスクについても引き続き議論されています。
Kai INUI: cursorの動作としていいなと思ったポイントの一つに、モデルにはコードを自由に出力させて、差分解釈用のモデルがこれを呼んでコードに適用する、っていう二段処理がある。 ほかの手段だとコードではなくdiffを出力させるのが、本当にモデルの真の能力を損なってないのかとか疑問がある。

asap: codex cliでo4-mini使ってるけど結構良さげ。o3-miniと比較してCashedd Inputが半額になっているのが本当に使いやすい。 今日軽く使ってて、Cashed Inputで3.5M, UnCashedで1M, Outputで0.1Mくらいだから、かなり効いてるし、思ったよりお金かからんかった

Kenn Ejima: Vibe codingとSupabaseは本当に危ない組み合わせで、RLSでブラウザからDBへの直アクセスなんてプロが作ってもややこしいのにVibe coderの自己責任とするのは良くないと思っている。はっきり言って設計思想の筋が良くない。DBアクセスは原則サーバーから行うべし。Bolt > Lovableなのはそこよ。 (引用ツイート: 個人開発のサービスからここ数ヶ月で5件、延べ1万件近い個...

LangChain作者、OpenAIのAgent SDKガイドに異論

  • LangChainの作者であるHarrison Chase氏が、OpenAIが公開したAgent SDKの実践ガイドの内容について、実用的でない部分があると指摘しています。
  • 同氏は、既存のエージェントフレームワーク(自身のLangChainを含む)の多くは本番環境での信頼性が十分でないとし、OpenAIのガイドのアプローチに疑問を呈しています。
  • Anthropicのエージェント構築ガイドの方が、よりシンプルで技術的に正確かつ実用的であるとも比較しています。
Harrison Chase: pretty bad advice here from openai there are 27 libraries like "Agents SDK" (i would put the original LangChain in this camp!) and none of them are reliable enough to get to production for 99% of use...

Harrison Chase: Reading this and comparing to Anthropic's guide on "building effective agents" is night and day https://t.co/8lrviltkAN Maybe just aimed at different audiences, but I find the Anthropic one to be si...

Kaggle、Googleとの生成AIコースを自習ガイドとして公開

  • Kaggleが、Googleと共同で開催した5日間の生成AI集中コースの内容を、自習可能なラーニングガイドとして公開しました。
  • ホワイトペーパー、ポッドキャスト、コードラボ、録画されたライブストリームなどが含まれており、ボーナス課題も用意されています。
  • Kaggleユーザーは自身のペースで生成AIについて学ぶことができます。
Kaggle: 📢 5-Day Generative AI Intensive Course with @Google is now available as a self-paced Learn Guide! Access whitepapers, podcasts, code labs, & recorded livestreams. Additionally, there is a bonus assig...

Subscribe to ML_Bear Times

(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください