2026年2月20日、Hugging FaceとUnslothが連携を発表。Hugging Face Jobs上の無料GPU枠でLLMのファインチューニングが利用可能になり、個人開発者でもゼロコストからモデル訓練を開始できる環境が整った。
UC BerkeleyとTsinghua大学の共同研究「SLA2」が、学習可能なルーターとQATによりビデオ拡散モデルのアテンション計算を97%スパース化しながら18.6倍の高速化と品質向上を同時に実現しました。ICML 2025採択。
GoogleがARC-AGI-2で77.1%を達成した「Gemini 3.1 Pro」を発表。前世代比2倍超の推論性能向上が確認され、API料金は据え置きでGemini APIとVertex AI経由での即日利用が可能となった。
LangGraph・CrewAI・AutoGen・OpenAI Agents SDK・Google ADKを徹底比較。2026年のユースケース別選び方と、MCP対応など最新トレンドをわかりやすく解説します。
2^128サイズのバイナリコードブックを持つ視覚トークナイザー「UniWeTok」が提案されました。従来手法REPA比8分の1以下の33Bトークンで訓練しながらFID 1.38を達成し、画像生成DPGスコア86.63でFLUX.1を上回る性能を示しています。
GoogleがDeepMindの最新AI音楽生成モデル「Lyria 3」をGeminiアプリに統合。テキストや写真から30秒のオリジナル楽曲を生成する機能の詳細と、著作権保護の仕組みを解説します。
拡散トランスフォーマーベースの命令駆動型画像編集システム「FireRed-Image-Edit 1.0」が登場。16億サンプルの大規模データと強化学習を組み合わせ、独自ベンチマークREDEdit-Benchの全15カテゴリで商用システムと同等以上の性能を達成します。
NVIDIAが日本語特化の90億パラメータLLM「Nemotron-Nano-9B-v2-Japanese」を公開。Nejumi Leaderboard 4の10B以下カテゴリで1位を獲得し、最大6倍のスループット向上とエージェント能力を両立したソブリンAI向けモデルの詳細を解説します。
清華大学が提案するEmbed-RLは、強化学習で埋め込みモデルの推論を最適化する新フレームワークです。4BパラメータでありながらMMEB-V2ベンチマークでスコア68.1を達成し、7Bの既存手法を上回る性能を実現した手法の仕組みと成果を解説します。
インド政府主催のAI Impact Summitで、OpenAI・Anthropic・Googleら大手が集結。11億ドルの政府VCファンド設立やAdaniの1000億ドルデータセンター計画など、インドのAIハブ化を加速させる主要発表を解説します。
LLMの量子化技術であるGPTQ・AWQ・GGUFの仕組みと違いを初心者向けに解説。自分のハードウェア環境に最適な手法の選び方をベンチマークデータとともに紹介します。
大規模推論モデルの「overthinking」問題を解決するBFS-POを解説。最大エントロピーノードでバックトラッキングし、最短正解パスを探索することでDAPO比1.37倍の高速化と精度向上を同時に達成した強化学習手法を紹介します。
ゴールドマン・サックスがClaude AIを会計業務に導入 — 金融AI活用の最前線
NVIDIAが日本語特化LLM「Nemotron 2 Nano 9B」を公開 — ソブリンAI実現に向けた性能を解説
Step 3.5 Flashとは?110億パラメータでGPT-5.2級の性能を達成したオープンモデル
Composition-RL: 簡単な問題を組み合わせてLLMの推論力を伸ばす強化学習フレームワーク
India AI Impact Summit — OpenAI・Anthropic・Googleら集結、インドAI投資が加速する全発表まとめ