論文の概要: DexCatch: Learning to Catch Arbitrary Objects with Dexterous Hands
- arxiv url: http://arxiv.org/abs/2310.08809v1
- Date: Fri, 13 Oct 2023 01:36:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 14:54:04.105063
- Title: DexCatch: Learning to Catch Arbitrary Objects with Dexterous Hands
- Title(参考訳): DexCatch: 任意のオブジェクトをデクサラスハンドでキャッチする学習
- Authors: Fengbo Lan, Shengjie Wang, Yunzhe Zhang, Haotian Xu, Oluwatosin Oseni,
Yang Gao, Tao Zhang
- Abstract要約: 本稿では,手動で多種多様な物体を捕捉する安定性制約強化学習アルゴリズムを提案する。
SCRLアルゴリズムはベースラインを大きなマージンで上回り、学習されたポリシーは目に見えないオブジェクトに対して強いゼロショット転送性能を示す。
- 参考スコア(独自算出の注目度): 15.884572907009039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving human-like dexterous manipulation remains a crucial area of
research in robotics. Current research focuses on improving the success rate of
pick-and-place tasks. Compared with pick-and-place, throw-catching behavior has
the potential to increase picking speed without transporting objects to their
destination. However, dynamic dexterous manipulation poses a major challenge
for stable control due to a large number of dynamic contacts. In this paper, we
propose a Stability-Constrained Reinforcement Learning (SCRL) algorithm to
learn to catch diverse objects with dexterous hands. The SCRL algorithm
outperforms baselines by a large margin, and the learned policies show strong
zero-shot transfer performance on unseen objects. Remarkably, even though the
object in a hand facing sideward is extremely unstable due to the lack of
support from the palm, our method can still achieve a high level of success in
the most challenging task. Video demonstrations of learned behaviors and the
code can be found on the supplementary website.
- Abstract(参考訳): 人間のような巧妙な操作を実現することは、ロボット工学における重要な研究領域である。
現在の研究は、ピック・アンド・プレイス・タスクの成功率の向上に焦点を当てている。
ピック・アンド・プレースと比較して、スロー・キャッチングの動作は、オブジェクトを目的地に運ぶことなくピッキング速度を増加させる可能性がある。
しかし、ダイナミックデキスタラスな操作は、多数の動的接触のために安定した制御を行う上で大きな課題となる。
本稿では,様々な物体をデクスタブルな手で捕捉することを学ぶために,安定性に制約のある強化学習(scrl)アルゴリズムを提案する。
SCRLアルゴリズムはベースラインを大きなマージンで上回り、学習ポリシーは見えないオブジェクトに対して強いゼロショット転送性能を示す。
手のひらからの支持が欠如しているため, 横向きの物体が極めて不安定であるにもかかわらず, 本手法は, もっとも困難な作業において, 高い成功率を達成することができる。
学習した振る舞いとコードのデモは、補足的なウェブサイトで見ることができる。
関連論文リスト
- Twisting Lids Off with Two Hands [88.20584085182857]
深層強化学習を用いたシミュレーションで訓練された政策は,実世界へ効果的に移行可能であることを示す。
我々の研究は、深層強化学習とsim-to-realトランスファーが相まって、前例のない複雑さの操作問題に対処する上で有望なアプローチであることを示す証拠となる。
論文 参考訳(メタデータ) (2024-03-04T18:59:30Z) - Sequential Dexterity: Chaining Dexterous Policies for Long-Horizon
Manipulation [28.37417344133933]
本稿では、長期タスク目標を達成するための複数の厳密なポリシーをチェーンする汎用システムであるSequential Dexterityを提案する。
システムの中核は、連鎖の成功率を高めるためのサブ政治を段階的に微調整する移行実現機能である。
本システムでは,新規な物体形状への一般化能力を実証し,デキスタラスハンドを備えた実世界ロボットへのゼロショット移動を可能にする。
論文 参考訳(メタデータ) (2023-09-02T16:55:48Z) - Latent Exploration for Reinforcement Learning [87.42776741119653]
強化学習では、エージェントは環境を探索し、相互作用することでポリシーを学ぶ。
LATent TIme-Correlated Exploration (Lattice)を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:40:43Z) - DexPBT: Scaling up Dexterous Manipulation for Hand-Arm Systems with
Population Based Training [10.808149303943948]
マルチフィンガーハンドエンドエフェクタを備えた模擬片腕または2腕ロボットを用いて,デキスタスな物体操作を学習する。
我々は、深層強化学習の探索能力を大幅に増幅できる分散型人口ベーストレーニング(PBT)アルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-05-20T07:25:27Z) - HACMan: Learning Hybrid Actor-Critic Maps for 6D Non-Prehensile
Manipulation [31.13382520365054]
本稿では6次元非包括的操作のための強化学習手法であるHybrid Actor-Critic Maps for Manipulation (HACMan)を紹介する。
シミュレーションおよび実世界における6次元オブジェクトポーズアライメントタスクにおけるHACManの評価を行った。
代替アクション表現と比較して、HACManは最高のベースラインの3倍以上の成功率を達成する。
論文 参考訳(メタデータ) (2023-05-06T05:55:27Z) - Decoupling Skill Learning from Robotic Control for Generalizable Object
Manipulation [35.34044822433743]
ロボット操作の最近の研究は、様々なタスクに取り組む可能性を示している。
これは関節制御のための高次元の作用空間によるものであると推測する。
本稿では,「何をすべきか」を「どうやるか」から「どうやるか」を学習するタスクを,別のアプローチで分離する。
ロボットキネマティック・コントロールは、作業空間のゴールに到達するために高次元の関節運動を実行するように最適化されている。
論文 参考訳(メタデータ) (2023-03-07T16:31:13Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Reactive Human-to-Robot Handovers of Arbitrary Objects [57.845894608577495]
本稿では、未知の物体の人間とロボットのハンドオーバを可能にするビジョンベースシステムを提案する。
提案手法は,クローズドループ運動計画とリアルタイムかつ時間的に一貫性のあるグリップ生成を組み合わせたものである。
提案手法の汎用性,ユーザビリティ,ロバスト性を,26種類の家庭用オブジェクトからなる新しいベンチマークで実証した。
論文 参考訳(メタデータ) (2020-11-17T21:52:22Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z) - Physics-Based Dexterous Manipulations with Estimated Hand Poses and
Residual Reinforcement Learning [52.37106940303246]
ノイズの多い入力ポーズをターゲットの仮想ポーズにマッピングするモデルを学習する。
モデルフリーハイブリッドRL+ILアプローチを用いて残留条件下で訓練する。
筆者らは,VRにおける手動物体の相互作用と,それを用いた手動物体の動作再構成という,手動姿勢推定を用いた2つのアプリケーションで,我々のフレームワークを検証した。
論文 参考訳(メタデータ) (2020-08-07T17:34:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。