Google DeepMindが開発した数学研究支援エージェント「AI Co-Mathematician」を解説します。非同期マルチエージェントで仮説立案から定理証明まで一貫支援し、FrontierMath Tier 4で全AIシステム中最高の48%を達成しました。
埋め込みモデルとベクトル検索を使わず、grepやシェルで生コーパスを直接探索するDCI(Direct Corpus Interaction)がBRIGHTとBEIRで既存手法を大幅に上回ることを示した論文を解説します。
Text VAE・ブロック因果DiT・条件付きデコードの3段階で構成されるCola DLMを解説します。連続潜在拡散によって自己回帰パラダイムとは異なるアプローチを提案し、約2Bパラメータで8ベンチマークにわたる強いスケーリング特性を示しました。
Transformer・Mamba等52のアーキテクチャを対象に、長文脈LLMが効率性・コンパクト性・想起能力の3条件を同時に実現できないことを情報理論で証明した基礎研究を解説します。
上海交通大学の学術チームによるOpenSeeker-v2は、SFTのみで4ベンチマークSoTAを達成。CPT+SFT+RLを使うTongyi DeepResearchを全指標で上回った「データ品質が鍵」という逆説的な知見を解説します。
異なるモデルファミリーの実行者と評価者が相互批評する敵対的マルチエージェント設計で、ML研究ワークフローを自律実行するオープンソースフレームワーク「ARIS」を解説します。
清華大学提案のWeightFormerは、Attention機構を動的パラメータMLPとして再定式化し、線形時間でグローバル視覚モデリングを実現。高解像度入力でDeiT比7.7倍の速度を達成した新手法を解説します。
清華大学らが提案するCtx2Skillは、3つのLLMエージェントによるSelf-Playでコンテキスト固有スキルを人間監督なしに自動精錬するフレームワーク。CL-benchで既存手法を一貫して上回る性能向上を達成しました。
パイプライン並列化の「weight binding問題」を解消する新手法RoundPipeを解説します。GPUをステートレスなワーカープールとして扱うラウンドロビン方式で8×RTX 4090でのLLMファインチューニングを最大2.16倍高速化し、単一コンシューマーサーバーでQwen3-235BのLoRAチューニングを実現します。
推論ステップに64種の抽象トークンを使う「Abstract CoT」を解説。Qwen3-8BでMATH-500精度90.8%を保ちながら推論コストを最大11.6倍削減する後学習手法です。
ByteDance Seedが発表したAgent-Worldは、MCPを活用して1,978の実世界環境を自律合成し、自己進化型の強化学習ループで23ベンチマークでGPT-4oなど商用モデルを上回る性能を実現しました。
「SFTは暗記、RLは一般化」という通説を再考。長いCoTによる推論SFTでも最適化・データ品質・モデル能力の3条件が揃えばドメイン横断的な一般化が可能であることを解説します。
HY-World 2.0とは?テキスト・画像・動画から3D世界を生成するマルチモーダルワールドモデル
Anthropic、Coefficient Bioを約4億ドルで買収、AI創薬に本格参入
ベクトルデータベース比較【2026年版】Pinecone・Qdrant・Weaviate・Milvusを徹底解説
Absolicsのガラス基板とは?AIチップ性能を10倍高密度化する次世代パッケージング
AIエージェントフレームワーク比較【2026】LangGraph・CrewAI・OpenAI Agents SDKの選び方