LoRA(Low-Rank Adaptation)の仕組みから、QLoRA・DoRA・RSLoRAなど最新の発展形まで、LLMと画像生成AI両方の活用方法をわかりやすく解説します。
東京大学松尾・岩澤研究室とさくらインターネットが、109Bパラメータの日本語医療特化LLM「Weblab-MedLLM-109B」を共同開発しました。医学知識ベンチマークでo1を超える93.3%を達成し、3月5日から研究者に無償提供が開始されています。
推論候補解を粒子として扱い、PRM(プロセス報酬モデル)のスコアで逐次洗練するアルゴリズム「PRISM」を解説します。gpt-oss-20bでAIME25 90.0%・GPQA Diamond 71.4%を達成し、6倍大きなモデルと同等の性能を計算効率よく実現。
GoogleがGemini 3シリーズの最速・最安モデル「Gemini 3.1 Flash-Lite」を発表しました。前世代比で応答速度2.5倍、入力100万トークン0.25ドルの低価格で大量処理ワークロードに対応します。
テキスト・画像・動画の3種類のマルチモーダル指示からLottie形式のベクターアニメーションを自動生成するフレームワーク「OmniLottie」を解説します。専用トークナイザーと200万件データセットMMLottie-2Mによる仕組みを詳しく紹介します。
2026年3月2日のBloomberg報道によると、AIコーディングツール「Cursor」のARRが20億ドルを突破しました。2025年末の約10億ドルから3ヶ月で倍増した急成長の背景を解説します。
ByteDance Seedが開発したCUDA Agentは、アジェンティック強化学習でGPUカーネルを自動生成・最適化します。KernelBenchで幾何平均2.11倍のスピードアップを達成し、Claude Opus 4.5やGemini 3 Proなどフロンティアモデルを大きく凌駕する性能を実証しました。
推論モデルの仕組み、o3・DeepSeek-R1などの主要モデル、テストタイムコンピュートとコスト構造、使い分けのポイントをわかりやすく解説します。
OpenAIとAmazonが複数年にわたる戦略的パートナーシップを締結。AWSがFrontierの唯一の外部クラウド配信プロバイダーとなり、Amazonは合計500億ドルを投資。エンタープライズAI展開の新たな経路が整った背景を解説します。
オムニモーダルLLMの推論能力を訓練なしで向上させるフレームワーク「ThinkOmni」を解説します。LRM-as-a-Guide機構とStepwise Contrastive Scalingにより、MathVistaで70.2、MMAUで75.5を達成しました。
OpenAIがAmazon・NVIDIA・SoftBankから総額1,100億ドルの資金調達を発表しました。企業価値は7,300億ドルに達し、合計5GW規模の計算資源確保やAmazonとの戦略的パートナーシップも同時に発表されています。
拡散言語モデル(DLM)が並列デコードを謳いながら自己回帰的に収束する根本原因を特定。訓練データの逐次的構造が問題と診断し、独立推論軌跡を使うNAP手法でGSM8Kの256ステップ精度を14.4ポイント改善しました。
ゴールドマン・サックスがClaude AIを会計業務に導入 — 金融AI活用の最前線
NVIDIAが日本語特化LLM「Nemotron 2 Nano 9B」を公開 — ソブリンAI実現に向けた性能を解説
開発者向け検索AI「Phind 2」登場、視覚的検索強化!
AIエージェントフレームワーク比較【2026】LangGraph・CrewAI・OpenAI Agents SDKの選び方
Step 3.5 Flashとは?110億パラメータでGPT-5.2級の性能を達成したオープンモデル