ロボット

マルチモーダル

視覚言語モデル活用を活用しロボ操作を改善する「OmniManip」

新アプローチ「OmniManip」を提案し、ロボットの物体操作を改善。視覚言語モデルを活用してタスク情報を抽出し、インタラクションプリミティブを生成。日常的なタスクで高い成功率を確認した。
ニュース

Meta、人間の触覚を再現したロボットハンド技術をオープンソースで公開

人間レベルの触覚機能を持つ「Meta Digit 360」を開発、800万個以上のセンサーで微細な力を検知ロボットハンド向け標準化プラットフォーム「Meta Digit Plexus」と協調作業評価用「PARTNR」を公開全技術をオープンソ...
画像

【BEINGS】ロボットが入力画像から目標地点まで移動するナビゲーション方法

この論文では、ロボットが目標の画像が撮影された場所へ自律的に到達するための新しい手法「BEINGS」を提案しています。BEINGSは3Dガウススプラッティングを用いて未来の視点を予測し、ベイズ更新を組み合わせることで、データに依存せず複雑な環境でも効率的なナビゲーションを可能にしました。