2026年02月18日 夜のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
NvidiaとMetaの巨額契約、AI開発競争の新局面
NvidiaがMetaに最大500億ドル規模のAIチップ供給契約を締結したと報じられ、業界に衝撃が走っています。
一方、AlibabaのQwen3.5が日本語OCRで高性能を発揮し、プロンプトを2回繰り返すだけで精度が劇的に向上する新手法も話題に。インドでは国産AIモデル開発が活発化するなど、グローバルなAI開発競争が加速しています。
では、本日の主要トピックを順に見ていきましょう。
目次
- Nvidia、Metaに最大500億ドル規模のAIチップ供給契約か
- 続報: Spotify CEO、コーディングAI Claude Codeを支持
- インドで国産AIモデル開発が活発化、新興企業Sarvam参入
- SamsungとSK Hynix、HBM増産競争へ 供給規律を放棄【続報】
- AIの再帰的自己改善がバズワード化 定義めぐり議論も
- AlibabaのQwen3.5、日本語OCRで他モデルを凌駕
- LLM時代の新開発手法、バイブコーディングが話題に
- プロンプトを2回繰り返すだけでLLMの性能が劇的に向上する新手法
- AIの海賊版学習は著作権法違反か 弁護士見解に注目集まる
- BigQueryの生成AI関数が一般提供開始【続報】
Nvidia、Metaに最大500億ドル規模のAIチップ供給契約か
- NvidiaがMetaにAIチップを数百万個供給する複数年契約を締結したと報じられています。
- これには、Blackwell、将来のRubin、さらにGraceやVera CPUが含まれます。
- この取引は最大500億ドル規模になる可能性がアナリストから指摘されており、Nvidiaの四半期売上に匹敵する規模であることから、市場に大きなインパクトを与えています。
- Metaはこれまでネットワークを自社構築していましたが、NvidiaのSpectrum-Xも採用される可能性が言及されており、Nvidiaの技術的優位性がさらに高まることが示唆されています。
Rohan Paul: (翻訳) NvidiaはMetaに数百万個のAIチップを販売する複数年契約を締結しました。 このパッケージには、現在のBlackwell、将来のRubin、そしてGraceとVeraの中央処理装置(CPU)が含まれています。 Nvidiaによると、これらのArm技術ベースのCPUは、ペアリングされるだけでなく、Metaのデータセンターにスタンドアロンで設置されるとのことです。 https:/...
パウロ: ヤバすぎですね さらにSpectrum Xまで言及されています Metaはネットワーキングを自社構築することで有名でしたが、そこもNvidiaが取るとなると意味合いは売り上げ的にも技術的にも相当大きくなります
パウロ: Nvidiaはネットワーキングも強いっ これが来ちゃったかぁ
続報: Spotify CEO、コーディングAI Claude Codeを支持
- AnthropicのコーディングAI「Claude Code」に関する続報です。
- SpotifyのCEOが決算説明会で支持を表明するなど、大手企業での導入が進んでいます。
- 開発チームはモデルの評価(evals)に情熱を持つ人材を積極的に採用しています。
- 開発者からは、仕様書から実装全体を委任するケースが増えているとの声も上がっています。
cat: (翻訳) SpotifyのCEOが最近の決算説明会でClaude Codeを支持したと聞いて興奮しています。開発者が仕様書で目標と制約を説明し、実装全体をClaude Codeに委任するケースが増えています。https://t.co/oikLHwbaPQ
cat: (翻訳) 優れた評価を構築することは、AI製品の迅速なイテレーションの鍵です。評価の構築が大好きで、Claude Codeで働きたい場合は、応募して、自分が構築した誇りに思う評価を含めてください!
mizchi: なんか気づいてきたけど、Claude も Codex も通常のコーディングよりセキュリティ関連の引き出しがだいぶ多いな。カットオフまでのCVE全部よんでそう。 ただ通常コーディングで発揮されることは少なく、セキュリティ観点でと言及しないと活性化しないんだけど...
インドで国産AIモデル開発が活発化、新興企業Sarvam参入
- インドのAIスタートアップSarvamが、インドの言語や文化に特化した国産AIモデルを発表しました。
- これは、これまで報じてきたGoogleやNvidiaなど国外大手による投資に加え、国内企業の台頭を示す新たな動きです。
- インドがAIの「世界的な導入拠点」を目指す中、国内外のプレーヤーによる開発競争がさらに激化しています。
Bloomberg: (翻訳) インドのスタートアップSarvamは、国内市場向けの有力な競合相手を創出するために、ChatGPTやClaudeなどよりも世界最大の市場の言語や文化に合わせたAIモデルを発表しました。https://t.co/DR4YMbkPWT
Sundar Pichai: (翻訳) 今朝、ナレンドラ・モディ首相閣下とお会いできて光栄でした。Googleが、健康を改善し、あらゆる言語での情報へのアクセスを拡大し、スタートアップ、農業などを支援するために、インドのあらゆるレベルでAIを導入するという彼の使命にどのように貢献しているかについて話し合いました。ありがとうございました。
Bloomberg: (翻訳) Nvidiaは、一連の現地パートナーシップとインフラストラクチャへのコミットメントにより、インドへの進出を深めており、南アジアの国がAI能力を構築する取り組みを加速させるのを支援しています。https://t.co/RfOJeq2TS4
SamsungとSK Hynix、HBM増産競争へ 供給規律を放棄【続報】
- 既報のHBM市場の活況に続く動きとして、SamsungとSK Hynixが供給規律を放棄し、本格的な増産競争に突入したと報じられました。
- Samsungは工場の完成を前倒し、SK Hynixも新工場を来年初頭に稼働させるなど、具体的な増産計画が進んでいます。
- 背景には、次世代HBM4がさらに高価になることを見据え、各社が歩留まりの課題を抱えつつも利益最大化を目指す戦略があると見られます。
Jukan: (翻訳) ** サムスンとSKハイニックスが供給規律戦略を放棄 * SKハイニックス龍仁工場1号機、来年2月~3月に試験生産開始予定(M15Xの6倍規模に相当) * サムスン、P4の完成を今年第4四半期に前倒し(このラインだけで月産10万~12万枚のHBM4を生産)
パウロ: (翻訳) HBM4の価格を1キューブあたり700ドルと仮定すると、550ドルのHBM3Eはかなり高い利益率を提供する可能性が高い。1c DRAM、4nmベースダイ、11Gbpsへの移行は、必然的に歩留まりを大幅に低下させるだろう。サムスン、SKハイニックス、マイクロンはより多くのウェハーを消費することになる。
AIの再帰的自己改善がバズワード化 定義めぐり議論も
- AIの「再帰的自己改善」というコンセプトが、新たなマーケティング用語として注目される一方、その定義について議論が巻き起こっています。
- 一部の開発者からは、モデルが人間を介さずに自らの重みを更新したり、アーキテクチャを進化させたりできなければ真の自己改善とは言えない、という厳しい意見も出ています。
- 一方で、Elon Musk氏がGrok 4.20の「再帰的な知能の成長」に言及するなど、このコンセプトは今後のAIの進化を語る上で重要なキーワードとなりそうです。
Yuchen Jin: (翻訳) 「再帰的自己改善」は最新のAIマーケティングスローガンになりつつあります。人間が介在せずにモデルが以下のことをできなければ、自己改善とは言えません。 - 自身の重みを更新する - アーキテクチャを進化させる - 自身のカーネルを最適化する
Haider.: (翻訳) イーロン・マスクは重要な点を明らかにしました。「grok 4.20は毎週改善されるので、再帰的な知能の成長は強力になるでしょう」彼が何を意味したのか完全にはわかりませんが、おそらく厳密な意味での継続的学習(展開されたモデルが時間とともにライブで重みを更新する)ではないでしょう。https://t.co/N59Zie4qGP
Haider.: (翻訳) AnthropicのBoris Cherny氏:「コーディングは今日、事実上解決されており、まもなくあらゆる分野のすべての人が利用できるようになるでしょう」「ソフトウェアエンジニアという肩書は、ビルダーやプロダクトマネージャーに置き換わるでしょう」再帰的に自己改善するモデルが利用される可能性がある上限は、はるかに恐ろしいものです。https://t.co/lxM4JvzICJ
AlibabaのQwen3.5、日本語OCRで他モデルを凌駕
- Alibabaのオープンソースモデル「Qwen」シリーズから新たなモデル「Qwen3.5」が公開され、注目を集めています。
- 特に日本語のOCR精度において、他の主要モデルを上回る性能を発揮したとの報告が上がっています。
- このモデルはVercelのAI Gateway経由で利用可能になり、開発者がより簡単にアクセスできるようになりました。
- 100万トークンのコンテキストウィンドウや強力な視覚的推論能力も特徴としています。
Junyang Lin: Qwen3.5 の日本語 OCR、気に入っていただけて嬉しいです!
Qwen: (翻訳) Qwen 3.5 PlusがAI Gatewayで利用可能になりました。@vercel_devチームに感謝します。🤝 モデルを使用してください: 'alibaba/qwen3.5-plus' 今すぐお試しください!
LLM時代の新開発手法、バイブコーディングが話題に
- LLMの登場でプログラミングの在り方が変化する中、「バイブコーディング」という言葉が1年の時を経て現実味を帯びてきたと話題になっています。
- 開発者からは、既存ライブラリをLLMで実装し直す際、リファクタリングしてPRを出すよりも、手元で一度分解して組み込む方が速いという意見が出ています。
- このアプローチにより、開発のスピード感が大きく変わる可能性が示唆されています。
mizchi: 「バイブコーディングという言葉は消える、なぜならそれはプログラミングそのものになるから」という1年前のポストが現実にだいぶ近づいてきた
mizchi: LLMで既存のライブラリを自分で実装し直すとき、仕様準拠であるということよりも自分でカスタマイズするときのパーツが欲しい時だから、そのパーツを切り出せる分回転でリファクタして PR 出すより、一旦手元でバラして組み込んだ方が速い、という状態になっています
プロンプトを2回繰り返すだけでLLMの性能が劇的に向上する新手法
- LLMの性能を向上させる簡単なプロンプトエンジニアリングのテクニックが発見され、話題となっています。
- 研究者によると、同じプロンプトを2回繰り返すだけで、モデルの精度が大幅に向上することが判明しました。
- ある名前検索タスクでは、精度が21%から97%に向上したとのことです。
- この手法は、出力が長くなったり応答が遅くなることなく、手軽に試せる改善策として注目されています。
Chubby♨️: (翻訳) なんと:研究者たちは、まったく同じプロンプトを2回繰り返すだけで、LLMのパフォーマンスが劇的に向上することを発見しました(あるモデルでは、名前検索タスクの精度が21%から97%に向上)。出力が長くなったり、応答が遅くなったり、ファインチューニングや凝ったプロンプトエンジニアリングも必要ありません。なぜならモデルは
AIの海賊版学習は著作権法違反か 弁護士見解に注目集まる
- AI学習目的での海賊版サイトなどからのデータ収集・利用が著作権法違反にあたるかについて、弁護士による見解が示され、開発者や研究者の間で注目を集めています。
- 著作権法30条の4では、情報解析目的であれば著作権者の許諾なく著作物を利用できるとされていますが、その解釈や適用範囲について議論がなされています。
- 専門家による整理された解説は、AI開発における法的なリスクを理解する上で重要な情報源となっています。
Odashi: 先生お疲れ様です案件だ AI学習目的の海賊版収集・利用は著作権法違反になるか? 柿沼太一弁護士の見解 https://t.co/QbQyLHTh8o
龍一郎 (f.k.a Asei Sugiyama): さすが専門家は整理がうまいなあ AI学習目的の海賊版収集・利用は著作権法違反になるか? 柿沼太一弁護士の見解(1/4 ページ) - ITmedia AI+ https://t.co/5UscoYfaFZ
BigQueryの生成AI関数が一般提供開始【続報】
- 以前Preview段階としてお伝えした、Google CloudのBigQueryで生成AIを活用できる2つのSQL関数「AI.GENERATE」と「AI.GENERATE_TABLE」が一般提供版(GA)になりました。
- これにより、SQLクエリ内から直接Geminiを呼び出し、非構造化データを含むあらゆる種類のデータの分析、抽出、翻訳、要約などが可能になります。
- データ分析者はより簡単に高度なタスクを実行できるようになり、非構造化データを構造化されたインサイトに変換する作業が効率化されます。
Google Cloud Japan: BigQuery の生成 AI 関数、 AI.GENERATE と AI.GENERATE_TABLE が一般提供版へ → https://t.co/vI7npwrHr3 あらゆる種類のデータを分析し、抽出、翻訳、要約、感情分析などのタスクを簡単に実行。非構造化データを構造化された分析情報に変換します。 #Gemini https://t.co/1tLqn5eKZ7