インド政府主催のAI Impact Summitで、OpenAI・Anthropic・Googleら大手が集結。11億ドルの政府VCファンド設立やAdaniの1000億ドルデータセンター計画など、インドのAIハブ化を加速させる主要発表を解説します。
LLMの量子化技術であるGPTQ・AWQ・GGUFの仕組みと違いを初心者向けに解説。自分のハードウェア環境に最適な手法の選び方をベンチマークデータとともに紹介します。
大規模推論モデルの「overthinking」問題を解決するBFS-POを解説。最大エントロピーノードでバックトラッキングし、最短正解パスを探索することでDAPO比1.37倍の高速化と精度向上を同時に達成した強化学習手法を紹介します。
Qwenチームが開発した初の大規模オープンWebシミュレータ「WebWorld」を解説。106万件のWeb操作データで訓練され、WebArenaで+9.2%改善しGPT-4o相当の性能を達成した仕組みと成果を紹介します。
従来のコードブック方式に代わりバイナリトークンを採用した画像生成手法「BitDance」を解説。260Mパラメータで自己回帰モデル最高のFID 1.24を達成し、最大30倍の高速化を実現した仕組みを紹介します。
Alibaba Groupが提案するP-GenRMは、ユーザーごとの嗜好を構造化された評価チェーンに変換し、パーソナライズされた報酬モデルを実現する新手法です。テスト時スケーリング機構との組み合わせで従来手法を大幅に上回り、8Bモデルが70B規模を凌駕する成果を達成。ICLR 2026 Oralに採択されました。
Hugging Faceが、AIコーディングエージェントにCUDAカーネル開発の専門知識を付与する「Agent Skill」をオープンソース公開しました。約550トークンの知識パッケージにより、Claude CodeやCodexがRMSNormなどの本番品質カーネルを自動生成し、PyTorch比最大2.47倍の高速化を達成しています。
Tencent Hunyuanが、強化学習で「簡単すぎる問題」を自動的に組み合わせて新たな複合問題を生成するComposition-RLを提案。4B〜30Bモデルで一貫した推論能力の向上を実現し、カリキュラム学習やクロスドメイン構成でさらなる改善を達成しました。
OpenAIのGPT-5.2 Proが、教科書で「ゼロになる」とされてきたグルーオン散乱振幅のシングルマイナス配置について一般公式を発見。内部モデルが12時間で形式的証明を完成させ、IAS・ハーバード等の物理学者と共同プレプリントとしてarXivに公開された。AI支援科学研究の新たなマイルストーンとなる成果。
Shanghai Innovation Instituteが開発した50億パラメータの軽量モデル「DeepGen 1.0」は、画像生成と編集を統合的に処理し、800億パラメータのモデルを28%上回る性能を実現。独自のSCB手法と3段階学習戦略が鍵となっています。
中国Zhipu AIが公開したオープンソースモデル「GLM-5」を解説。744Bパラメータ(MoE構成で40Bアクティブ)でClaude Opus 4.5を上回る性能を示し、API価格は約6分の1という特徴を紹介します。
GigaAI発表の「GigaBrain-0.5M」を解説。World Modelベース強化学習(RAMP)により従来の模倣学習を30%上回る性能を実現したVLAモデルの仕組みと、実環境での成果を紹介します。
ゴールドマン・サックスがClaude AIを会計業務に導入 — 金融AI活用の最前線
Step 3.5 Flashとは?110億パラメータでGPT-5.2級の性能を達成したオープンモデル
【rStar-Math】小型LLMの数学力を向上!モンテカルロ木探索を使って最適解を選択
Composition-RL: 簡単な問題を組み合わせてLLMの推論力を伸ばす強化学習フレームワーク
NVIDIAがロボット向けPhysical AIモデルをオープンソース公開 — 製造・医療での活用事例