2025年04月13日 夜のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
エージェント連携プロトコルの進展と新たなAIインフラ投資の動き
今週はAIエージェント連携プロトコルMCP/A2Aの実装例が多数公開され、開発者コミュニティで活発な議論が続いています。
インフラ面では、Micronの広島工場でのHBM増産計画前倒しや、FoxconnなどによるAIサーバー製造の米国シフトが進行中です。
一方で、Firebase StudioのGemini SDK強制挿入問題やAI生成コンテンツ増加による情報ノイズ化への懸念など、新たな課題も浮上しています。
それでは各トピックの詳細を見ていきましょう。
目次
- MCP/A2A続報: 実装デモ公開や連携議論が活発化
- 続報: 湘南Kaggler会開催、プロンプト技術など共有
- ドキュメント形式とAIの相性、プレーンテキスト推奨論高まる
- LLMへの指示「〜禁止されています」形式が効果的か
- Firebase Studio、Gemini SDK強制挿入などで評価割れる
- AIインフラ:HBM増産前倒し、サーバー製造は米国へ
- LangChain、AI WebスクレイピングやウェアラブルAI発表
- ChatGPT Memory機能更新か、内部モデル改善の指摘も
- Haskell等でAIコード副作用管理を探る動き
- AI生成コンテンツ増加、情報消費や学習への影響懸念
MCP/A2A続報: 実装デモ公開や連携議論が活発化
- AIエージェント連携プロトコルMCPおよびA2Aに関する議論の続報です。
- LangGraphを用いたMCPのJavaScript実装デモや、Claude DesktopからGoogle Sheetsを操作するMCPサーバー、Ableton Liveを操作するMCPサーバーなどが開発・公開されています。
- エージェント連携における目的設定の重要性や、ローカルAIとオンラインAIサービスの効果的な連携方法についても議論が深まっています。
mizchi: MCPは色々議論の余地はあるけどA2Aはわかりやすく過剰なレイヤーじゃないか?
LangChain: (翻訳) 🔄 LangGraph MCPデモ LangGraphのMCPアダプターのJavaScript実装で、シーケンシャルなAIエージェントを構築します。以下の統合をデモンストレーションします。 - マルチチェーンの計画と実行 - 検証付きの自動Webスクレイピング - TypeScriptサポートと型安全性 - LangGraphフレームワーク https://t.co/33MHWSli...
Shion Honda: Google Sheetsを操作するMCPサーバを作ってClaude Desktopから呼び出してみました。 https://t.co/jm3BQGWTQy
続報: 湘南Kaggler会開催、プロンプト技術など共有
- 先日準備が進められていた第2回湘南Kaggler会が開催され、参加者から多くの報告が上がっています。
- 会ではプロンプトエンジニアリングの最新手法やKaggleでの活用事例、分析コンペの取り組み方などに関する発表が行われ、資料も公開されています。
- Reasoningモデルにおけるプロンプティングのベストプラクティスなど、技術的な議論も交わされました。
しんちろ: 第二回湘南Kaggler会の発表資料です!プロンプトエンジニアリングの最近の手法、Kaggleでの使われ方についてまとめました! #湘南Kaggler https://t.co/pyTMbUbUDz
こへっち: Reasoningモデルの Prompting Engineering について以前AnthropicやOpenAIからガイドラインが出てましたね。アンチパターンはあるみたい。 #湘南Kaggler
Jun Koda: 朝4:30からKaggle!!
ドキュメント形式とAIの相性、プレーンテキスト推奨論高まる
- AIがドキュメントの内容を理解・活用する上で、その形式が重要であるという議論が開発者から上がっています。
- リッチテキストや図(drawio等)を含むドキュメントは、AIが高価な画像認識を経ないと意味を抽出できず、特に更新・メンテナンス時のコストが課題になると指摘されています。
- 一方で、プレーンテキストや、pathを使わないSVGなどはAIが直接意味を理解しやすく、効率的な情報活用に適しているとの意見が優勢です。
mizchi: ここで一句 ドキュメント プレーンテキスト 以外ゴミ
mizchi: 単方向で一発ならいいんですが、ドキュメントって更新前提でメンテするわけで、元データがリッチテキスト構造である限り何度もマルチモーダルな画像として扱う必要があり都度aiに食わせるコストがバカにならなくなるんですよね。 コスト感が100倍のオーダーで違うので可用性も100倍違う認識です
mizchi: 画像のマルチモーダル経由せずにプレーンテキストのまま意味理解ができそうなのが、おそらく SVG で path 使わないパターンで自分は vscode の excaridraw 拡張入れて graph.ex.svg みたいなファイルとして編集してる https://t.co/1T90ibK1ta
LLMへの指示「〜禁止されています」形式が効果的か
- LLMに特定の動作をさせないように指示する際、「〜しないでください」というお願いベースの表現よりも、「〜することは禁止されています」という禁止形式の方が効果的である可能性が指摘されています。
- この現象は、LLMが学習した英文におけるニュアンスの違いに影響されている可能性が考えられます。
- より確実に意図した通りにLLMを制御するためのプロンプトエンジニアリングの知見として注目されます。
mizchi: LLM向けのプロンプトで「~しないでください」のお願いベースだと全然指示従ってくれないが、「~することは禁止されています」だとかなり従ってくれる。 英文上のニュアンスに影響受けてそうな気配がある。
Torishima / INTP: 禁止されていますのほうがいいのか
Firebase Studio、Gemini SDK強制挿入などで評価割れる
- Googleが発表したAIによるアプリ開発支援ツール「Firebase Studio」について、ユーザーからの評価が分かれています。
- Web IDE「Project IDX」と生成AIを統合し、作りたいアプリのイメージを伝えるだけで開発を進められる点が評価されています。
- 一方で、プロンプト内容に関わらずGemini SDKやAPIキーが強制的に挿入される、不要なファイルが生成されるといった問題点が複数の開発者から指摘されており、改善が望まれています。
Kol Tregaskes: (翻訳) ああ、GoogleのFirebase Studioは最初は良さそうに見えましたが、Xでの投稿や視聴した動画/ポッドキャストから判断すると、そうではないようです。Firebaseはコードに関係のないランダムなコメントを挿入し、不要なファイルを多数インストールし、APIキーの追加を要求します。
Kimihiko Kitase ♨️ 北瀬 公彦: 今週発表された Firebase Studio 試してみました。 生成AI とコードで簡単にアプリ開発を開発できます。 🔥 Google が数年前から開発していた Web IDE 「Project IDX」と、AI による開発支援機能を統合した新しいツール。 🔥作りたいアプリのイメージを AI https://t.co/W2qHpt3Xir
AIインフラ:HBM増産前倒し、サーバー製造は米国へ
- AI需要の高まりを受け、関連する半導体インフラへの投資や動向が注目されている。
- Micronが広島工場でのHBM(広帯域メモリ)生産計画を前倒しすると報じられた。HBM容量はAI推論性能に直結するため重要視されている。
- 鴻海(Foxconn)やPegatronによるサーバー工場の米国建設投資も報じられており、AIサーバー製造のサプライチェーン変化や中国でのGPU価格上昇の動きも見られる。
パウロ: Micron HBMの製造能力を積極的に拡大 広島工場の拡大を1年ほど前倒しへ
パウロ: 鴻海とペガトロンがアメリカにサーバー工場を投資すると言っているんだから、米国に製造業は戻る方向なんじゃないかなぁ サーバーもL1からL12の生産ステップがあり、L7~L12は米国で出来るし、GPUカードやトレイの交換考えるとデータセンターに近い方が良いよね https://t.co/PundaeSw8O https://t.co/KlsrAo3YQ6
パウロ: ギガバイト、NvidiaとAMDの中国でのGPUを値上げ
LangChain、AI WebスクレイピングやウェアラブルAI発表
- AI開発フレームワークのLangChainから、新たな応用例が発表されています。
- 自然言語の質問によってWebコンテンツを抽出できるスマートWebスクレイパーの構築チュートリアルが公開されました。複雑なセレクタ指定の代わりにLangChain RAGとOllamaを活用します。
- また、リアルタイム文字起こしなどが可能なオープンソースのAIウェアラブルデバイス「Omi AI Wearable」プロジェクトも紹介されています。
LangChain: (翻訳) 🕸️🤖 AI Webスクレイピング 複雑なセレクタの代わりに自然言語クエリを理解するスマートなWebスクレイパーを構築します。LangChainのRAGとOllama、Streamlitを使用して、単に質問するだけでWebコンテンツを抽出します。 チュートリアルをチェック 📺 https://t.co/lUAPOqyy0D https://t.co/bSSJTHjwkv
LangChain: (翻訳) 🎙️🤖 Omi AIウェアラブル オンデバイスAIを使用してリアルタイムで会話を処理するオープンソースデバイス。24時間以上のバッテリー寿命、リアルタイム文字起こし、カスタム統合と自動アクションのための包括的なSDKを備えています。 GitHubでプロジェクトを探る! 🔗 https://t.co/96eMNCC32o
ChatGPT Memory機能更新か、内部モデル改善の指摘も
- ChatGPTの公式Xが「Memory Updated」と投稿し、会話履歴を活用するMemory機能の更新を示唆しています。
- また、一部ユーザーからは、スケジュールされたタスクを実行する内部モデルが最近更新され、指示追従性などが向上したのではないかとの指摘も上がっています。
ChatGPT: https://t.co/nmNFWpmbJx
Tibor Blaho: (翻訳) ここ数日でスケジュールされたChatGPTタスクを実行するモデルが更新されたことに気づいた人はいますか?(指示追従、絵文字など)
Haskell等でAIコード副作用管理を探る動き
- Haskellなどの静的型付け言語とAIコーディングを組み合わせ、エフェクトシステムを活用する動きに関心が高まっている
- AI生成コードの副作用(ファイルI/O等)を型システムで管理し、安全なAI支援開発を目指す
- Haskell特有の概念(Freeモナド等)を用いた試行錯誤や議論が行われている
mizchi: TSみたいなランタイムが曖昧な言語より静的検査が強い言語でVibe Codingやれる環境作ったほうが、最終的にモデル性能が追いついたときに有利だと思って Haskell で試してる
mizchi: 自分はhaskellに興味があるのではなく、エフェクトシステムを現場レベルで使いたいからkoka やhaskell 調べてて、具体的には deno run --allow-read のような実行時パーミッションは真面目に副作用を記述すればコンパイル時に判明するはずで、AI生成コードのエフェクトを真面目に取り扱いたい
mizchi: Haskell のコード補完、たぶんなんだけど、ユーザーが使うコードよりライブラリ実装のコードの方が重みがついてしまってて、そのライブラリを使ったコードじゃなくて実装をそのものをそのまま生成しようとする傾向ないか…?
AI生成コンテンツ増加、情報消費や学習への影響懸念
- AIによるコンテンツ生成が容易になるにつれ、その情報消費や学習への影響について懸念の声が上がっています。
- 特にDeep Researchのような機能で生成される長文記事は、構造が定型的で、AIによる要約を経て消費されることも多く、情報がノイズ化する可能性が指摘されています。
- AIが生成した二次情報が増殖し、信頼できる情報を見分けることが難しくなり、結果的に新技術などの学習難易度が上がるのではないかとの意見も見られます。
Iaiso: Deep Research生成記事、構造が一定なので2、3スクロールしたぐらいで分かるようになった ・見出し、段落の分量が揃った1-2万文字の文章 ・文中リンクなしで巻末にまとめる ・テーブルと箇条書きを使ったアスキーアート
Iaiso: 1-2万文字ぐらいの文章をAIで書いてAIで要約して消費するのならそれはノイズを使ったコミュニケーションでありだんだん人類はイルカになっていくのでは
Iaiso: それにしても最速で情報確率分布によるノイズ2次情報が生成されて学習者にとってそれが見分けづらいので新技術の習得難易度が上がっている・・ 時間経過とともに増殖していくし