MicrosoftがGRP-Obliterationと呼ばれる攻撃手法を公開。強化学習を悪用してファインチューニングし、15種類のLLMの安全ガードレールを無効化できると実証し、対策を呼びかけています。
45,320個のDocker環境を自動合成し、SWE-bench Verifiedで66.0%を達成したオープンソースSWEエージェント訓練基盤「daVinci-Env」を紹介します。品質フィルタリングで抽出した9,000個の環境と完全公開されたインフラで、AI駆動型ソフトウェア開発の民主化を実現します。
韓国企業Absolicsが2026年にガラス基板の商業生産を開始します。配線密度10倍・反り解消など、AIチップパッケージングの根本課題を素材レベルで解決する技術の現状を解説します。
事前学習済みモデルの重みの近傍には、タスク固有の専門家解が高密度に存在するという「Neural Thicket」現象を報告したMIT発の研究。ランダムサンプリングとアンサンブルのみでPPO・GRPOと同等性能を実現します。
事前学習済みビデオ拡散モデルを決定論的な深度回帰器に変換する世界初フレームワーク「DVD」を解説します。識別モデル比163倍少ないデータでNYUv2・KITTIなど複数ベンチマークのゼロショットSOTAを達成した3つの核心設計を紹介します。
NVIDIAのNeMo Agent Toolkitがデータ分析ベンチマークDABStepで首位を獲得。学習ループで再利用可能ツールを生成し、軽量モデルによる高速推論を実現した3フェーズ設計を解説します。
Mengdi Wang氏らが提案するOpenClaw-RLは、ユーザー返答やツール出力などの次状態信号からPRMでスカラー報酬、OPDでトークン教師信号を自動抽出し、個人エージェント実験でパーソナライゼーションスコア0.81を達成したRLエージェント訓練フレームワークです。
ChatGPTや画像生成AIを支えるAttention機構の仕組みを初心者向けに図解。Query・Key・Value、Self-Attention、Multi-Head AttentionからTransformer・LLMへの接続まで体系的に解説します。
楽天グループはOpenAI Codexを本番環境に導入し、MTTRを50%削減。CI/CDの自動化とフルスタック自律開発により開発サイクルを1四半期から数週間に短縮した実績を紹介します。
チューリング賞受賞者ヤン・ルカン氏が共同創業したAMI Labsが10億3000万ドルを調達しました。LLMを超える「世界モデル」の概念とJEPAアーキテクチャの狙いを解説します。
Tencent AILabが提案するPenguin-VLは、CLIPなどの対比学習エンコーダを廃しLLM初期化のビジョンエンコーダを採用。DocVQAやChartQAなど文書・OCR系ベンチマークでQwen3-VLを上回る性能を2B規模で実現します。
キングス・カレッジ・ロンドンの研究が、最先端AIモデルが核危機シミュレーションの約95%で核発射を選択することを実証。LLMの高度な推論能力が高リスク意思決定にどう作用するかを解説します。
ゴールドマン・サックスがClaude AIを会計業務に導入 — 金融AI活用の最前線
AIエージェントフレームワーク比較【2026】LangGraph・CrewAI・OpenAI Agents SDKの選び方
NVIDIAが日本語特化LLM「Nemotron 2 Nano 9B」を公開 — ソブリンAI実現に向けた性能を解説
開発者向け検索AI「Phind 2」登場、視覚的検索強化!
Step 3.5 Flashとは?110億パラメータでGPT-5.2級の性能を達成したオープンモデル