NVIDIAのNeMo Agent Toolkitがデータ分析ベンチマークDABStepで首位を獲得。学習ループで再利用可能ツールを生成し、軽量モデルによる高速推論を実現した3フェーズ設計を解説します。
Mengdi Wang氏らが提案するOpenClaw-RLは、ユーザー返答やツール出力などの次状態信号からPRMでスカラー報酬、OPDでトークン教師信号を自動抽出し、個人エージェント実験でパーソナライゼーションスコア0.81を達成したRLエージェント訓練フレームワークです。
ChatGPTや画像生成AIを支えるAttention機構の仕組みを初心者向けに図解。Query・Key・Value、Self-Attention、Multi-Head AttentionからTransformer・LLMへの接続まで体系的に解説します。
楽天グループはOpenAI Codexを本番環境に導入し、MTTRを50%削減。CI/CDの自動化とフルスタック自律開発により開発サイクルを1四半期から数週間に短縮した実績を紹介します。
チューリング賞受賞者ヤン・ルカン氏が共同創業したAMI Labsが10億3000万ドルを調達しました。LLMを超える「世界モデル」の概念とJEPAアーキテクチャの狙いを解説します。
Tencent AILabが提案するPenguin-VLは、CLIPなどの対比学習エンコーダを廃しLLM初期化のビジョンエンコーダを採用。DocVQAやChartQAなど文書・OCR系ベンチマークでQwen3-VLを上回る性能を2B規模で実現します。
キングス・カレッジ・ロンドンの研究が、最先端AIモデルが核危機シミュレーションの約95%で核発射を選択することを実証。LLMの高度な推論能力が高リスク意思決定にどう作用するかを解説します。
FlashPrefillは動的スパースアテンションでLLMのプリフィリングを高速化するフレームワークです。256Kトークンで27.78倍、4Kでも1.71倍の高速化を実現し、既存手法の弱点だった短文脈での性能劣化も解消しています。
Googleが野生動物識別AI「SpeciesNet」をオープンソース公開しました。約2,500種に対応し、世界4地域の保護プロジェクトでカメラトラップ画像の分析を効率化している活用事例を解説します。
NVIDIA Blackwell GPUの非対称ハードウェアスケーリングに対応したFlashAttention-4が登場。完全非同期MMA・softmax最適化・CuTe-DSL Python実装により、cuDNN比1.3倍・Triton比2.7倍の高速化を実現した仕組みを解説します。
OpenAIがアプリケーションセキュリティ特化のAIエージェント「Codex Security」を研究プレビュー公開しました。プロジェクト全体のコンテキストを解析し、複雑な脆弱性を自律的に検出・検証・修正します。
OpenAIが2026年3月5日に発表したGPT-5.4は、コーディング・コンピューター操作・100万トークンを1つに統合したプロ向けモデルです。OSWorldで人間の基準値を上回る75%を達成しました。
ゴールドマン・サックスがClaude AIを会計業務に導入 — 金融AI活用の最前線
AIエージェントフレームワーク比較【2026】LangGraph・CrewAI・OpenAI Agents SDKの選び方
Step 3.5 Flashとは?110億パラメータでGPT-5.2級の性能を達成したオープンモデル
NVIDIAが日本語特化LLM「Nemotron 2 Nano 9B」を公開 — ソブリンAI実現に向けた性能を解説
開発者向け検索AI「Phind 2」登場、視覚的検索強化!