LLMの量子化技術であるGPTQ・AWQ・GGUFの仕組みと違いを初心者向けに解説。自分のハードウェア環境に最適な手法の選び方をベンチマークデータとともに紹介します。
Hugging Faceが、AIコーディングエージェントにCUDAカーネル開発の専門知識を付与する「Agent Skill」をオープンソース公開しました。約550トークンの知識パッケージにより、Claude CodeやCodexがRMSNormなどの本番品質カーネルを自動生成し、PyTorch比最大2.47倍の高速化を達成しています。
中国Zhipu AIが公開したオープンソースモデル「GLM-5」を解説。744Bパラメータ(MoE構成で40Bアクティブ)でClaude Opus 4.5を上回る性能を示し、API価格は約6分の1という特徴を紹介します。
本記事で使用している画像は論文中の図表、またはそれを参考に作成した画像を使用しております。 この研究のポイントは? 本論文は、多数の会話を含む検索拡張生成(RAG)システムの評価のための新しいベンチマーク「CORAL」を […]
ゴールドマン・サックスがClaude AIを会計業務に導入 — 金融AI活用の最前線
Step 3.5 Flashとは?110億パラメータでGPT-5.2級の性能を達成したオープンモデル
【rStar-Math】小型LLMの数学力を向上!モンテカルロ木探索を使って最適解を選択
Composition-RL: 簡単な問題を組み合わせてLLMの推論力を伸ばす強化学習フレームワーク
NVIDIAがロボット向けPhysical AIモデルをオープンソース公開 — 製造・医療での活用事例