2026年02月10日 夜のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
日本発Shizuku AIがa16z主導で資金調達、AlphabetはAI投資に200億ドル起債
日本発「Shizuku AI」がa16zをリード投資家としてシードラウンドを実施、企業価値120億円と報じられました。a16zが日本のシードラウンドをリードするのは初となり、AIエンタメ分野への注目が高まっています。
AlphabetはAI投資計画を背景に史上最大となる200億ドルの社債を発行。Gemini Skillsライブラリも公開し、開発者エコシステムを強化しています。
その他、わずか13パラメータでLLMをチューニングする「TinyLoRA」論文の公開や、Agent AI普及によるCPU・DRAM需要増の分析など、技術面でも興味深い動きが見られます。
それでは、本日の主要トピックを一つずつ見ていきます。
目次
- 好評のCodexアプリ、プロモ終了後も無料提供を継続へ
- 日本発「Shizuku AI」がa16z主導で資金調達
- AIエディタCursorのComposer 1.5、速度と知性で高評価【続報】
- xAIで4人目の共同創設者が辞任、World Modelingチームは増員
- Alphabet、AI投資で200億ドル起債 Gemini Skillsも公開
- Agent AIの普及がCPU・DRAM需要を押し上げ、市場は過小評価か
- Google AntigravityとAI Studioが統合を示唆
- わずか13パラメータでLLMをチューニングするTinyLoRA論文
好評のCodexアプリ、プロモ終了後も無料提供を継続へ
- 先日100万ダウンロード突破が報じられたコーディング支援ツール「Codex」のアプリに関する続報です。
- 好評を受け、プロモーション期間終了後も無料およびGoユーザーへの提供を継続する方針が示されましたが、一部機能制限の可能性も示唆されています。
Sam Altman: (翻訳) 最初の1週間で100万人以上の人々がCodexアプリをダウンロードしました。\n\n先週、Codex全体のユーザー数が60%以上増加しました!\n\nこのプロモーションの後も、無料/GoユーザーがCodexを利用できるようにしますが、そこで制限を設ける必要があるかもしれません。しかし、私たちは誰もがCodexを試してビルドを開始できるようにしたいと考えています。
Greg Brockman: (翻訳) codexは急成長しています
Alexander Embiricos: (翻訳) 私たちは長い間、Codexを無料ユーザーに提供したいと考えていました。先週、ついにそれを実現し、その状態を維持することを発表できることを嬉しく思います!\n\nあなたはただ物事を構築することができます。
日本発「Shizuku AI」がa16z主導で資金調達
- AIキャラクター開発を手がける日本発のスタートアップ「Shizuku AI」が、米VC大手Andreessen Horowitz (a16z) をリード投資家としてシードラウンドの資金調達を実施したことを発表しました。
- a16zが日本のスタートアップのシードラウンドをリードするのは初となり、企業価値は120億円と報じられています。
- 世界で愛されるAIコンパニオンの創出を目指すとしており、日本のIP・エンタメ分野でのAI活用に大きな注目が集まっています。
あき先生(Aki): Shizuku AIはこのたび、a16zをリード投資家として、日本のスタートアップとしては初となる資金調達を実施しました。\n\n日本から、世界で一番愛されるAIキャラクター、そして日常に寄り添い、支えとなるAIコンパニオンを全力で作っていきます!!
松本 勇気 (Yuki Matsumoto) | LayerX CTO: 米VC最大手、日本発のシズクAIに出資 AIキャラ開発で価値120億円 - 日本経済新聞 https://t.co/Hvh3jl1BVg
シェイン・グウ: シード調達、おめでとうございます!私もエンジェル投資させて頂き、日本拠点のスタートアップへの投資はこれが初めてです。AGIはUXの問題でもあります。2年前にStreamDiffusionの論文を読んでAkiに連絡しました。高いリサーチセンスと驚異的な学習速度だけでなく、日本で育ち、同じゲームや漫画に親し
AIエディタCursorのComposer 1.5、速度と知性で高評価【続報】
- 以前お伝えしたAIコードエディタ「Cursor」の独自モデルに関する続報です。
- 新モデル「Composer 1.5」がリリースされ、知性と速度のバランスに優れていると開発者から評価されています。
- 特にコーディングタスクでの迅速なイテレーションに適しているとされていますが、一方で性能向上に伴うコスト増も指摘されています。
Lee Robinson: (翻訳) Composer 1.5が登場しました!このモデルにはとても興奮しています。\n\nまた、すべてのユーザー向けにさらに多くの使用法を含めました。ぜひお試しください!
Ryo Lu: (翻訳) フロー状態での迅速なイテレーションにはComposer 1.5をお試しください。\n\n賢く、速く、安く、3つすべてを手に入れることができます!
Sasha Rush: (翻訳) コーディングモデルは、RLのスケーリングにとって非常に興味深いテストベッドであり続けています。問題を解決させると、どんどん良くなっていきます。
xAIで4人目の共同創設者が辞任、World Modelingチームは増員
- Elon Musk氏率いるxAIで、4人目となる共同創設者が辞任したことが明らかになりました。
- 主要メンバーの離脱が続く一方で、同社は世界のシミュレーションを目指す「World Modeling」チームの人材募集を開始しています。
- 組織の再編と並行して、野心的なプロジェクトを推進する動きが注目されます。
Yuchen Jin: (翻訳) xAIの共同創設者がxAIを去りました。\n\nこれで4人目の共同創設者の退社になると思います。また、Greg Yangも病気です。それでもxAIがトップモデルを構築できることを願っています。
Lisan al Gaib: (翻訳) リサンはxAIはワールドモデリングに全力を尽くすべきだと言っている\n\n一日後に彼らは採用している笑
Lisan al Gaib: (翻訳) @xAIでワールドモデリングの採用を行っています。私たちのチームは、リアルタイムインタラクション、ロングホライゾンビデオ、宇宙の理解といったワールドシミュレーター構築の最前線にいます!\n\n私たちは、迅速に動く小規模で集中したチームです。野心的な目標。大量のGPUとデータ。フラットな構造。
Alphabet、AI投資で200億ドル起債 Gemini Skillsも公開
- Alphabet (Googleの親会社) が、AIへの大規模な投資計画を背景に、同社史上最大となる200億ドルの社債を発行しました。
- この資金調達は、AI分野での競争が激化する中、インフラや研究開発への投資を加速させる動きとみられます。
- また、GoogleはGemini APIやSDKと連携するスキルライブラリ「Gemini Skills」を公開し、開発者エコシステムの強化も進めています。
Bloomberg: (翻訳) Alphabetは、AIへの野心的な取り組みの背景にある前例のない支出計画の資金を調達するため、借入を積極的に行っています。\n\nGoogleの親会社は月曜日に過去最大となる200億米ドルの社債を起債し、スイスと英国でも珍しい案件を含む取引を開始する計画です。
Lisan al Gaib: (翻訳) GoogleがGemini Skillsをリリースしました。「Gemini API、SDK、モデルインタラクションのためのスキルライブラリ」
Bloomberg: (翻訳) アルファベットは、米国での200億ドルの大型案件に続き、初めてスイスフラン建て債券を販売しています。
Agent AIの普及がCPU・DRAM需要を押し上げ、市場は過小評価か
- AI向け半導体の需要増に関する続報です。
- Agent AIの普及が、GPUだけでなくx86 CPUとDRAMの需要を特に押し上げるとの分析が強まっています。
- エージェントの自律的な処理実行には、GPUによる並列計算だけでなく、CPUによる逐次処理とDRAMの大容量メモリが不可欠とされています。
- 市場はこの新たな需要をまだ過小評価している可能性があり、今後のデータセンター向けハードウェア市場の動向が注目されます。
パウロ: Agent AIによるx86 CPUとDRAM需要の上振れを市場は過小評価してますな
SemiAnalysis: (翻訳) CPUの復活:2026年のデータセンターCPUランドスケープ、RLとエージェントの利用、コンテキストメモリストレージ、DRAM価格への影響、CPUインターコネクトの進化、AMD Venice、Verano、Florence、Intel Diamond Rapids、Coral Rapids、Arm Phoenix + Venom、Graviton 5、Axion。
Dylan Patel: (翻訳) 2022年の古いSemiAnalysisのコンテンツを見逃した方、これはそれですが、もちろんその上に品質が大幅に向上しています。これを出すのは本当に楽しかったです。\n\n10代の頃はいつもCPUについて議論していました。それが復活して再び話題になるのは良いことです。
Google AntigravityとAI Studioが統合を示唆
- Googleの対話型AI開発環境「Antigravity」と、Webベースのプロトタイピングツール「Google AI Studio」が来週にも統合される可能性が示唆されました。
- Google AIのプロダクトマネージャーが「Antigravity + Google AI Studio Stay tuned for next week : )」と投稿し、憶測を呼んでいます。
- 両ツールが統合されることで、よりシームレスなAIアプリケーション開発体験が提供されることが期待されます。
Logan Kilpatrick: (翻訳) Antigravity + Google AI Studio\n\n来週をお楽しみに :)
Kol Tregaskes: (翻訳) Google AntigravityとGoogle AI Studioが来週、何らかの形で合併または統合される予定です。
わずか13パラメータでLLMをチューニングするTinyLoRA論文
- 大規模言語モデルのファインチューニング手法「TinyLoRA」に関する論文が公開され、その効率の高さが注目されています。
- この手法は、80億パラメータのモデル「Qwen2.5」をわずか13パラメータでチューニングし、数学ベンチマークGSM8Kで91%の精度を達成したと報告されています。
- SVDを利用したLoRA-XSをさらに低次元ベクトルとランダムテンソルに分解することで、パラメータ数を劇的に削減しており、今後のLLMチューニングの新たな選択肢となる可能性があります。
pon / Hiromu Nakamura: TinyLoRAの論文読んだ。\n8BモデルのQwen2.5をわずか13パラメータだけで、GSM8Kで91%の精度を達成というやばいやつ。SVD使ってるLoRA-XSをさらに低次元ベクトルとランダムテンソルに分解してパラメータ数を抑えてる。\nhttps://t.co/6CaB0Dv6fo https://t.co/ww9xOczmaP