LangGraph・CrewAI・AutoGen・OpenAI Agents SDK・Google ADKを徹底比較。2026年のユースケース別選び方と、MCP対応など最新トレンドをわかりやすく解説します。
2^128サイズのバイナリコードブックを持つ視覚トークナイザー「UniWeTok」が提案されました。従来手法REPA比8分の1以下の33Bトークンで訓練しながらFID 1.38を達成し、画像生成DPGスコア86.63でFLUX.1を上回る性能を示しています。
GoogleがDeepMindの最新AI音楽生成モデル「Lyria 3」をGeminiアプリに統合。テキストや写真から30秒のオリジナル楽曲を生成する機能の詳細と、著作権保護の仕組みを解説します。
拡散トランスフォーマーベースの命令駆動型画像編集システム「FireRed-Image-Edit 1.0」が登場。16億サンプルの大規模データと強化学習を組み合わせ、独自ベンチマークREDEdit-Benchの全15カテゴリで商用システムと同等以上の性能を達成します。
NVIDIAが日本語特化の90億パラメータLLM「Nemotron-Nano-9B-v2-Japanese」を公開。Nejumi Leaderboard 4の10B以下カテゴリで1位を獲得し、最大6倍のスループット向上とエージェント能力を両立したソブリンAI向けモデルの詳細を解説します。
清華大学が提案するEmbed-RLは、強化学習で埋め込みモデルの推論を最適化する新フレームワークです。4BパラメータでありながらMMEB-V2ベンチマークでスコア68.1を達成し、7Bの既存手法を上回る性能を実現した手法の仕組みと成果を解説します。
インド政府主催のAI Impact Summitで、OpenAI・Anthropic・Googleら大手が集結。11億ドルの政府VCファンド設立やAdaniの1000億ドルデータセンター計画など、インドのAIハブ化を加速させる主要発表を解説します。
LLMの量子化技術であるGPTQ・AWQ・GGUFの仕組みと違いを初心者向けに解説。自分のハードウェア環境に最適な手法の選び方をベンチマークデータとともに紹介します。
大規模推論モデルの「overthinking」問題を解決するBFS-POを解説。最大エントロピーノードでバックトラッキングし、最短正解パスを探索することでDAPO比1.37倍の高速化と精度向上を同時に達成した強化学習手法を紹介します。
Qwenチームが開発した初の大規模オープンWebシミュレータ「WebWorld」を解説。106万件のWeb操作データで訓練され、WebArenaで+9.2%改善しGPT-4o相当の性能を達成した仕組みと成果を紹介します。
従来のコードブック方式に代わりバイナリトークンを採用した画像生成手法「BitDance」を解説。260Mパラメータで自己回帰モデル最高のFID 1.24を達成し、最大30倍の高速化を実現した仕組みを紹介します。
Alibaba Groupが提案するP-GenRMは、ユーザーごとの嗜好を構造化された評価チェーンに変換し、パーソナライズされた報酬モデルを実現する新手法です。テスト時スケーリング機構との組み合わせで従来手法を大幅に上回り、8Bモデルが70B規模を凌駕する成果を達成。ICLR 2026 Oralに採択されました。
ゴールドマン・サックスがClaude AIを会計業務に導入 — 金融AI活用の最前線
Composition-RL: 簡単な問題を組み合わせてLLMの推論力を伸ばす強化学習フレームワーク
NVIDIAが日本語特化LLM「Nemotron 2 Nano 9B」を公開 — ソブリンAI実現に向けた性能を解説
Step 3.5 Flashとは?110億パラメータでGPT-5.2級の性能を達成したオープンモデル
【rStar-Math】小型LLMの数学力を向上!モンテカルロ木探索を使って最適解を選択