マルチモーダル

視覚言語モデル活用を活用しロボ操作を改善する「OmniManip」

新アプローチ「OmniManip」を提案し、ロボットの物体操作を改善。視覚言語モデルを活用してタスク情報を抽出し、インタラクションプリミティブを生成。日常的なタスクで高い成功率を確認した。
マルチモーダル

動画に対応したRAG手法「VideoRAG」で視覚情報の活用の質が向上

動画応答生成手法「VideoRAG」を提案!動画とテキスト情報を統合し、質問に適した外部情報を活用。従来のRAGと比べ、視覚情報の利用により応答の質が向上。これで動画への質問ももっとスムーズに!
マルチモーダル

データ拡張で進化する数理モデルURSA!数式処理や幾何学的問題でGTP-4を上回る?

数学的推論に特化した多モーダルモデルURSAが登場!新しいデータ拡張技術と誤答例を活用し、推論能力を向上。数式処理や幾何学的問題でGTP-4を上回る?
強化学習

【Meta-CoT】高難度な数学タスクに優れたフレームワークでLLMの推論能力を向上

新たなフレームワーク「Meta-CoT」で複雑な推論能力を向上!自己強化型学習法とバックトラッキング機能を活用し、モデルの正確性と自己修正能力を強化。特に高難度の数学タスクで優れた性能、「Big MATH」が貢献。
言語・LLM

【rStar-Math】小型LLMの数学力を向上!モンテカルロ木探索を使って最適解を選択

小型LLMの数学的思考を向上させる新フレームワーク「rStar-Math」を提案。モンテカルロ木探索と自己進化型深層思考を組み合わせることで、計算コストを抑えつつ高い性能を実現した実験結果が報告されました。
強化学習

LLM性能向上手法「REINFORCE++」がPPOを超える效果!

REINFORCE++は、トークンレベルのKL正則化と簡素な方策更新を用いて、LLMの性能を向上させる手法です。PPOに匹敵する一般化性能とコスト効率を実験で示しています。
動画

「STAR」映像超解像フレームワークで過去のフレームとの調和を実現

新フレームワーク「STAR」を提案し、T2Vモデルを活用して映像超解像を改善!リアルなテクスチャと時間的一貫性を強化。
強化学習

社会的AIエージェント問題解決の手法「SDPO」でマルチターン会話の性能向上

新手法SDPOはエージェントの問題を特定して最適化を図り、各セッションの特定セグメントに注目して精密なフィードバックを提供。他の手法より性能が向上し、社会的AIエージェントのトレーニングに効果的です。
マルチモーダル

長い思考指示と知識蒸留で視覚タスク性能を向上したMLLM「Virgo」の提案

視覚推論力を向上させるMLLM「Virgo」が登場!長い思考指示と知識蒸留の2アプローチで性能向上を実証。データの質が結果に及ぼす影響も重要と確認。
マルチモーダル

【VITA-1.5】音声と視覚の統合技術で人と機械の自然な対話を実現

VITA-1.5モデルは音声と視覚情報を統合し、人と機械の自然なコミュニケーションを強化。視覚と言語を学習後に音声を統合し、リアルタイムに動的処理と瞬時の出力を実現します。