UIUCが提案するEywaは、時系列・表形式データを扱う科学基盤モデルをLLMエージェントと統合するフレームワークです。3層設計と双方向Tsaheyluインターフェースにより、従来比7%の性能向上と30%のトークン削減を実証しました。
マスク氏が自社xAIによるOpenAIモデルの蒸留を法廷で認め、波紋が広がっています。非営利から営利への転換の合法性を問う本裁判の第1週の主要証言を解説します。
Google DeepMindが発表した「AI Co-Clinician」は、医師・AI・患者が協働する三者医療モデルを提唱。140以上の診療指標で遠隔診療AIの性能を多角的に評価します。
9BパラメータながらGemini 2.5 Flashに匹敵する視覚言語性能を実現したMiniCPM-o 4.5。Omni-Flowが可能にする全二重リアルタイム対話の仕組みと性能を解説します。
MoE(Mixture of Experts)の仕組みとDenseモデルとの違い、ゲーティング機構・負荷分散の課題から、Mixtral・DeepSeek V3・Gemma 4など主要LLMへの応用まで初学者向けにわかりやすく解説します。
スペイン・バスク大学と英カーディフ大学の研究チームが、GPT-4o-miniなど8つのLLMを独自データセットで評価。6モデルで日本が最頻参照国となる文化的偏りの実態と、その原因がファインチューニングにあることを明らかにしました。
MetaのFacebook Researchが発表したSapiens2は、10億枚の人物画像で事前学習した0.4B〜5Bパラメータの統合基盤モデルです。姿勢推定+4 mAP・法線推定誤差45.6%削減を達成し、ICLR 2026に採択されました。
OpenAIが2026年4月27日、コーディングエージェント向けオーケストレーション仕様「Symphony」をオープンソース公開しました。イシュートラッカーをAIエージェントのコントロールプレーンに変換し、一部チームでPRが500%増加した仕組みを解説します。
推論ステップに64種の抽象トークンを使う「Abstract CoT」を解説。Qwen3-8BでMATH-500精度90.8%を保ちながら推論コストを最大11.6倍削減する後学習手法です。
LLM推論が遅い構造的な理由から、KVキャッシュ・FlashAttention・vLLM(PagedAttention)・投機的デコーディングまで、高速化技術を図解で体系的に解説します。
Google DeepMindが韓国政府と正式パートナーシップを締結。ソウルにAIキャンパスを設立し、AlphaFold・AlphaGenome・WeatherNextをSNU・KAISTなど研究機関に提供します。
CVPR 2026採択のVista4Dは、4Dポイントクラウドを活用して動画を任意の視点・カメラ軌跡から再合成するフレームワークです。深度推定誤差や外観保存の失敗という従来課題を、静的ピクセル永続性と多視点動的データ学習で解決します。
Anthropic、Coefficient Bioを約4億ドルで買収、AI創薬に本格参入
HY-World 2.0とは?テキスト・画像・動画から3D世界を生成するマルチモーダルワールドモデル
ベクトルデータベース比較【2026年版】Pinecone・Qdrant・Weaviate・Milvusを徹底解説
Absolicsのガラス基板とは?AIチップ性能を10倍高密度化する次世代パッケージング
AIエージェントフレームワーク比較【2026】LangGraph・CrewAI・OpenAI Agents SDKの選び方