論文の概要: DexMachina: Functional Retargeting for Bimanual Dexterous Manipulation
- arxiv url: http://arxiv.org/abs/2505.24853v1
- Date: Fri, 30 May 2025 17:50:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:53.115044
- Title: DexMachina: Functional Retargeting for Bimanual Dexterous Manipulation
- Title(参考訳): DexMachina:2次元デキスタスマニピュレーションのための機能的リターゲティング
- Authors: Zhao Mandi, Yifan Hou, Dieter Fox, Yashraj Narang, Ajay Mandlekar, Shuran Song,
- Abstract要約: 本研究では,人間の手動物体から対象状態を追跡するための機能的難解な操作ポリシーの問題点について検討する。
そこで我々は,仮想オブジェクトコントローラを強度で使用するという,新しいカリキュラムベースのアルゴリズムを提案する。
DexMachinaがベースライン法を著しく上回っていることを示すため,多様なタスクセットと器用な手を用いたシミュレーションベンチマークを作成した。
- 参考スコア(独自算出の注目度): 48.68321200585559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of functional retargeting: learning dexterous manipulation policies to track object states from human hand-object demonstrations. We focus on long-horizon, bimanual tasks with articulated objects, which is challenging due to large action space, spatiotemporal discontinuities, and embodiment gap between human and robot hands. We propose DexMachina, a novel curriculum-based algorithm: the key idea is to use virtual object controllers with decaying strength: an object is first driven automatically towards its target states, such that the policy can gradually learn to take over under motion and contact guidance. We release a simulation benchmark with a diverse set of tasks and dexterous hands, and show that DexMachina significantly outperforms baseline methods. Our algorithm and benchmark enable a functional comparison for hardware designs, and we present key findings informed by quantitative and qualitative results. With the recent surge in dexterous hand development, we hope this work will provide a useful platform for identifying desirable hardware capabilities and lower the barrier for contributing to future research. Videos and more at https://project-dexmachina.github.io/
- Abstract(参考訳): 機能的リターゲット化の課題について検討し,人間の手動による物体状態追跡のための厳密な操作ポリシーを学習する。
我々は,多行動空間,時空間不連続性,人間とロボットの手のエンボディメントのギャップが原因で難易度の高い物体を用いた長期的双方向作業に焦点をあてる。
そこで我々は,新しいカリキュラムベースのアルゴリズムであるDexMachinaを提案する。鍵となるアイデアは,仮想オブジェクトコントローラを減衰強度で使用することである。
DexMachinaがベースライン法を著しく上回っていることを示すため,多様なタスクセットと器用な手を用いたシミュレーションベンチマークを作成した。
本アルゴリズムとベンチマークにより,ハードウェア設計の関数的比較が可能となり,定量的および定性的な結果から得られた重要な知見が得られた。
最近の手作りの急激な増加に伴い、この取り組みは、望ましいハードウェア機能を特定し、将来の研究に貢献するための障壁を低くするための有用なプラットフォームを提供することを期待している。
https://project-dexmachina.github.io/
関連論文リスト
- MAPLE: Encoding Dexterous Robotic Manipulation Priors Learned From Egocentric Videos [43.836197294180316]
そこで本研究では,より効率的なポリシー学習を実現するために,よりリッチな操作を生かした創発的ロボット操作手法であるMAPLEを提案する。
具体的には、手動接触時の手動接触点と詳細な手動ポーズを予測し、学習した特徴を用いて下流操作タスクのポリシーを訓練する。
論文 参考訳(メタデータ) (2025-04-08T14:25:25Z) - CordViP: Correspondence-based Visuomotor Policy for Dexterous Manipulation in Real-World [20.52894595103719]
CordViPは、オブジェクトのロバストな6Dポーズ推定とロボットのプロプリセプションを活用することで、通信を構築し、学習する新しいフレームワークである。
提案手法は,6つの実世界のタスクにおいて,最先端の性能を達成し,極めて巧妙な操作能力を示す。
論文 参考訳(メタデータ) (2025-02-12T14:41:14Z) - DexterityGen: Foundation Controller for Unprecedented Dexterity [67.15251368211361]
ツール使用など,ロボットの巧妙な操作スキルを教えることは,大きな課題となる。
現在のアプローチは、人間の遠隔操作(模倣学習)とシミュレート・トゥ・リアル強化学習(sim-to-real reinforcement learning)の2つの戦略に大別できる。
本稿では,手動回転や翻訳などの大規模動きプリミティブをRLで事前学習するDexterityGenを紹介する。
現実の世界では、人間の遠隔操作をコントローラーのプロンプトとして利用し、厳密な振る舞いを生み出す。
論文 参考訳(メタデータ) (2025-02-06T18:49:35Z) - GarmentLab: A Unified Simulation and Benchmark for Garment Manipulation [12.940189262612677]
GarmentLabは、変形可能なオブジェクトと衣料品の操作のために設計された、コンテンツリッチなベンチマークと現実的なシミュレーションである。
私たちのベンチマークには、さまざまな種類の衣料品、ロボットシステム、マニピュレータが含まれています。
これらの課題に対して、最先端のビジョン手法、強化学習、模倣学習アプローチを評価した。
論文 参考訳(メタデータ) (2024-11-02T10:09:08Z) - Interacting Hand-Object Pose Estimation via Dense Mutual Attention [97.26400229871888]
3Dハンドオブジェクトのポーズ推定は多くのコンピュータビジョンアプリケーションの成功の鍵となる。
本研究では,手と物体間の微粒な依存関係をモデル化できる新しい相互注意機構を提案する。
提案手法は,高品質かつリアルタイムな推論速度で,物理的に妥当なポーズを生成できる。
論文 参考訳(メタデータ) (2022-11-16T10:01:33Z) - H-SAUR: Hypothesize, Simulate, Act, Update, and Repeat for Understanding
Object Articulations from Interactions [62.510951695174604]
The Hypothesize, Simulate, Act, Update, and Repeat (H-SAUR) is a probabilistic generative framework that generated hypotheses about objects articulate given input observed。
提案手法は,現在最先端のオブジェクト操作フレームワークよりも優れていることを示す。
我々は、学習に基づく視覚モデルから学習前の学習を統合することにより、H-SAURのテスト時間効率をさらに向上する。
論文 参考訳(メタデータ) (2022-10-22T18:39:33Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。