論文の概要: Dexterous Functional Grasping
- arxiv url: http://arxiv.org/abs/2312.02975v1
- Date: Tue, 5 Dec 2023 18:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 14:34:52.639417
- Title: Dexterous Functional Grasping
- Title(参考訳): 偶発的機能把握
- Authors: Ananye Agarwal, Shagun Uppal, Kenneth Shaw, Deepak Pathak
- Abstract要約: 本稿では,両世界の長所を組み合わさって,対象物の機能的把握を実現する。
少数の人的データを用いてRLの探索空間を削減するための固有グラスプの新規な応用を提案する。
固有グラフプ動作空間は,シミュレーションにおいてベースラインを上回り,実戦におけるハードコードグリップよりも優れ,訓練された人間の遠隔操作者よりも優れることがわかった。
- 参考スコア(独自算出の注目度): 39.15442658671798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While there have been significant strides in dexterous manipulation, most of
it is limited to benchmark tasks like in-hand reorientation which are of
limited utility in the real world. The main benefit of dexterous hands over
two-fingered ones is their ability to pickup tools and other objects (including
thin ones) and grasp them firmly to apply force. However, this task requires
both a complex understanding of functional affordances as well as precise
low-level control. While prior work obtains affordances from human data this
approach doesn't scale to low-level control. Similarly, simulation training
cannot give the robot an understanding of real-world semantics. In this paper,
we aim to combine the best of both worlds to accomplish functional grasping for
in-the-wild objects. We use a modular approach. First, affordances are obtained
by matching corresponding regions of different objects and then a low-level
policy trained in sim is run to grasp it. We propose a novel application of
eigengrasps to reduce the search space of RL using a small amount of human data
and find that it leads to more stable and physically realistic motion. We find
that eigengrasp action space beats baselines in simulation and outperforms
hardcoded grasping in real and matches or outperforms a trained human
teleoperator. Results visualizations and videos at https://dexfunc.github.io/
- Abstract(参考訳): 巧妙な操作には大きな進歩があったが、そのほとんどは、実世界では限られたユーティリティである、手動のリオリエンテーションのようなベンチマークタスクに限られている。
2本指の指よりも器用な手の利点は、道具やその他の物体(細いものを含む)を拾い上げてしっかりつかんで力を加える能力である。
しかし、このタスクは機能的余裕の複雑な理解と正確な低レベル制御の両方を必要とする。
以前の作業は、人間のデータから余裕を得るが、このアプローチは低レベルの制御にはスケールしない。
同様に、シミュレーショントレーニングは、ロボットに現実世界の意味を理解できない。
本稿では,両世界の最善を組み合わせることで,野生の物体の機能把握を実現することを目的とする。
モジュラーアプローチを使います。
まず、異なるオブジェクトの対応する領域をマッチングし、SIMで訓練された低レベルポリシーを実行し、それを把握する。
本稿では,少数の人間データを用いてrlの探索空間を削減し,より安定かつ物理的にリアルな動作に導くための固有グラスプスの新たな応用を提案する。
固有グラスの動作空間は、シミュレーションでベースラインを上回り、リアルにハードコードされた把持を上回り、訓練された人間のテレオペレーターと一致または上回る。
results visualizations and video at https://dexfunc.github.io/
関連論文リスト
- Helpful DoggyBot: Open-World Object Fetching using Legged Robots and Vision-Language Models [63.89598561397856]
室内環境における四足歩行操作のためのシステムを提案する。
オブジェクト操作にはフロントマウントのグリップを使用しており、アジャイルスキルにエゴセントリックな深さを使ってシミュレーションでトレーニングされた低レベルのコントローラである。
実世界のデータ収集やトレーニングを行なわずに、2つの目に見えない環境でシステムを評価する。
論文 参考訳(メタデータ) (2024-09-30T20:58:38Z) - Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - SynH2R: Synthesizing Hand-Object Motions for Learning Human-to-Robot
Handovers [37.49601724575655]
視覚に基づく人間とロボットのハンドオーバは、人間とロボットのインタラクションにおいて重要かつ困難なタスクである。
本稿では,ロボットの訓練に適した人間のつかみ動作を生成するためのフレームワークを提案する。
これにより、以前の作業よりも100倍多くのオブジェクトで、総合的なトレーニングとテストデータを生成することができます。
論文 参考訳(メタデータ) (2023-11-09T18:57:02Z) - Few-Shot Preference Learning for Human-in-the-Loop RL [13.773589150740898]
メタラーニングの成功に触発された我々は、先行タスクデータに対する嗜好モデルを事前訓練し、少数のクエリだけで新しいタスクに迅速に適応する。
メタワールドにおける操作ポリシーのトレーニングに必要なオンラインフィードバックの量を20$times$に削減し,実際のフランカ・パンダロボット上での手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-12-06T23:12:26Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z) - Deep Imitation Learning for Bimanual Robotic Manipulation [70.56142804957187]
本稿では,ロボットによるバイマニュアル操作のための深層模倣学習フレームワークを提案する。
中心となる課題は、操作スキルを異なる場所にあるオブジェクトに一般化することである。
i)マルチモーダルダイナミクスを要素運動プリミティブに分解し、(ii)リカレントグラフニューラルネットワークを用いて各プリミティブをパラメータ化して相互作用を捕捉し、(iii)プリミティブを逐次的に構成する高レベルプランナと、プリミティブダイナミクスと逆運動学制御を組み合わせた低レベルコントローラを統合することを提案する。
論文 参考訳(メタデータ) (2020-10-11T01:40:03Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。