論文の概要: DexCatch: Learning to Catch Arbitrary Objects with Dexterous Hands
- arxiv url: http://arxiv.org/abs/2310.08809v2
- Date: Sun, 18 Aug 2024 12:22:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 04:16:54.709061
- Title: DexCatch: Learning to Catch Arbitrary Objects with Dexterous Hands
- Title(参考訳): DexCatch: 任意のオブジェクトをデクサラスハンドでキャッチする学習
- Authors: Fengbo Lan, Shengjie Wang, Yunzhe Zhang, Haotian Xu, Oluwatosin Oseni, Ziye Zhang, Yang Gao, Tao Zhang,
- Abstract要約: そこで我々は,器用な手を用いたスローング・キャッチタスクのための学習ベースのフレームワークを提案する。
提案手法は45シナリオで73%の成功率を達成する(さまざまなポーズやオブジェクト)。
物体が横向きに向き合うタスクでは、手のひらからの支持が欠如しているため非常に不安定なシナリオであり、我々の手法は依然として60%以上の成功率を達成している。
- 参考スコア(独自算出の注目度): 14.712280514097912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving human-like dexterous manipulation remains a crucial area of research in robotics. Current research focuses on improving the success rate of pick-and-place tasks. Compared with pick-and-place, throwing-catching behavior has the potential to increase the speed of transporting objects to their destination. However, dynamic dexterous manipulation poses a major challenge for stable control due to a large number of dynamic contacts. In this paper, we propose a Learning-based framework for Throwing-Catching tasks using dexterous hands (LTC). Our method, LTC, achieves a 73\% success rate across 45 scenarios (diverse hand poses and objects), and the learned policies demonstrate strong zero-shot transfer performance on unseen objects. Additionally, in tasks where the object in hand faces sideways, an extremely unstable scenario due to the lack of support from the palm, all baselines fail, while our method still achieves a success rate of over 60\%.
- Abstract(参考訳): 人間のような巧妙な操作を実現することは、ロボット工学における重要な研究領域である。
現在の研究は、ピック・アンド・プレイス・タスクの成功率の向上に焦点を当てている。
ピック・アンド・プレイスと比較すると、投球行動は目的地への物体輸送の速度を増大させる可能性がある。
しかし、ダイナミックデキスタラスな操作は、多数の動的接触のために安定した制御を行う上で大きな課題となる。
本稿では,Dexterous Hand (LTC) を用いたThrowing-Catchingタスクのための学習ベースフレームワークを提案する。
提案手法は,45のシナリオ(さまざまなポーズやオブジェクト)に対して73 %の成功率を達成し,学習方針は未知のオブジェクトに対して強いゼロショット転送性能を示す。
さらに,手持ちの物体が横向きに向き合うタスクにおいて,手のひらからの支持が欠如しているため,非常に不安定なシナリオでは,すべてのベースラインがフェールする一方で,我々の手法は依然として60倍以上の成功率を達成している。
関連論文リスト
- Local Policies Enable Zero-shot Long-horizon Manipulation [80.1161776000682]
ManipGenを紹介します。これはsim2real転送のための新しいポリシーのクラスであるローカルポリシーを活用します。
ManipGenは、SayCan、OpenVLA、LLMTrajGen、VoxPoserといったSOTAアプローチを、50の現実世界操作タスクで36%、76%、62%、60%で上回っている。
論文 参考訳(メタデータ) (2024-10-29T17:59:55Z) - Single-Shot Learning of Stable Dynamical Systems for Long-Horizon Manipulation Tasks [48.54757719504994]
本稿では,必要なトレーニングデータ量を削減しつつ,タスク成功率の向上に焦点をあてる。
提案手法では,長距離実証をウェイポイントとサブゴールで定義された離散ステップに分割する手法を提案する。
シミュレーションと実世界の両方の実験を通して,本手法を検証し,シミュレーションから物理ロボットプラットフォームへの効果的移行を実証した。
論文 参考訳(メタデータ) (2024-10-01T19:49:56Z) - Hand-Object Interaction Pretraining from Videos [77.92637809322231]
我々は,3次元ハンドオブジェクトインタラクショントラジェクトリから,一般的なロボット操作を学習する。
人間の手と操作された物体を3D空間で共有し、人間の動きをロボットの動きと共有する。
我々は、このポリシーを、強化学習(RL)と行動クローニング(BC)の両方で微調整することで、下流タスクへのサンプル効率の適応を可能にし、従来のアプローチと比較して堅牢性と一般化性を同時に改善できることを実証的に実証した。
論文 参考訳(メタデータ) (2024-09-12T17:59:07Z) - GraspXL: Generating Grasping Motions for Diverse Objects at Scale [30.104108863264706]
政策学習フレームワークGraspXLにおいて,複数の動作目標に対して手物体の把握動作の発生を統一する。
58個のオブジェクトでトレーニングされたポリシーは、成功率82.2%の500万以上の未確認オブジェクトに対して、多様な把握動作を堅牢に合成することができる。
私たちのフレームワークは、さまざまな手元にデプロイでき、再構築または生成されたオブジェクトで作業できます。
論文 参考訳(メタデータ) (2024-03-28T17:57:27Z) - Physically Plausible Full-Body Hand-Object Interaction Synthesis [32.83908152822006]
そこで本研究では,全体で手-物体間相互作用を合成するための物理に基づく手法を提案する。
既存のメソッドは、しばしば相互作用プロセスの分離されたセグメントにフォーカスし、成果物をもたらす可能性のあるデータ駆動技術に依存します。
論文 参考訳(メタデータ) (2023-09-14T17:55:18Z) - HACMan: Learning Hybrid Actor-Critic Maps for 6D Non-Prehensile Manipulation [29.01984677695523]
本稿では6次元非包括的操作のための強化学習手法であるHybrid Actor-Critic Maps for Manipulation (HACMan)を紹介する。
シミュレーションおよび実世界における6次元オブジェクトポーズアライメントタスクにおけるHACManの評価を行った。
代替アクション表現と比較して、HACManは最高のベースラインの3倍以上の成功率を達成する。
論文 参考訳(メタデータ) (2023-05-06T05:55:27Z) - Interacting Hand-Object Pose Estimation via Dense Mutual Attention [97.26400229871888]
3Dハンドオブジェクトのポーズ推定は多くのコンピュータビジョンアプリケーションの成功の鍵となる。
本研究では,手と物体間の微粒な依存関係をモデル化できる新しい相互注意機構を提案する。
提案手法は,高品質かつリアルタイムな推論速度で,物理的に妥当なポーズを生成できる。
論文 参考訳(メタデータ) (2022-11-16T10:01:33Z) - Reactive Human-to-Robot Handovers of Arbitrary Objects [57.845894608577495]
本稿では、未知の物体の人間とロボットのハンドオーバを可能にするビジョンベースシステムを提案する。
提案手法は,クローズドループ運動計画とリアルタイムかつ時間的に一貫性のあるグリップ生成を組み合わせたものである。
提案手法の汎用性,ユーザビリティ,ロバスト性を,26種類の家庭用オブジェクトからなる新しいベンチマークで実証した。
論文 参考訳(メタデータ) (2020-11-17T21:52:22Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。