論文の概要: MyoDex: A Generalizable Prior for Dexterous Manipulation
- arxiv url: http://arxiv.org/abs/2309.03130v1
- Date: Wed, 6 Sep 2023 16:10:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 14:46:50.257629
- Title: MyoDex: A Generalizable Prior for Dexterous Manipulation
- Title(参考訳): myoDex: Dexterous Manipulationの一般的なプリミティブ
- Authors: Vittorio Caggiano, Sudeep Dasari, Vikash Kumar
- Abstract要約: 人間の器用さは、ひとつのタスクによって獲得されるのではなく、以前の経験の多様性に基づいて構築される。
提案手法では,マルチタスク学習を活用して,タスクに依存しない行動の先入観を暗黙的に捉えている。
myoDexを利用するエージェントは、蒸留ベースラインに比べて約3倍、約4倍高速なタスクを解くことができる。
- 参考スコア(独自算出の注目度): 17.859880233707717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human dexterity is a hallmark of motor control. Our hands can rapidly
synthesize new behaviors despite the complexity (multi-articular and
multi-joints, with 23 joints controlled by more than 40 muscles) of
musculoskeletal sensory-motor circuits. In this work, we take inspiration from
how human dexterity builds on a diversity of prior experiences, instead of
being acquired through a single task. Motivated by this observation, we set out
to develop agents that can build upon their previous experience to quickly
acquire new (previously unattainable) behaviors. Specifically, our approach
leverages multi-task learning to implicitly capture task-agnostic behavioral
priors (MyoDex) for human-like dexterity, using a physiologically realistic
human hand model - MyoHand. We demonstrate MyoDex's effectiveness in few-shot
generalization as well as positive transfer to a large repertoire of unseen
dexterous manipulation tasks. Agents leveraging MyoDex can solve approximately
3x more tasks, and 4x faster in comparison to a distillation baseline. While
prior work has synthesized single musculoskeletal control behaviors, MyoDex is
the first generalizable manipulation prior that catalyzes the learning of
dexterous physiological control across a large variety of contact-rich
behaviors. We also demonstrate the effectiveness of our paradigms beyond
musculoskeletal control towards the acquisition of dexterity in 24 DoF Adroit
Hand. Website: https://sites.google.com/view/myodex
- Abstract(参考訳): 人間の器用さはモーターコントロールの目印です。
筋骨格感覚運動回路の複雑さ(多関節および多関節23関節を40筋以上で制御する)にもかかわらず、手は迅速に新しい動作を合成することができる。
この作業では、人間のデクスタリティが、ひとつのタスクによって獲得されるのではなく、以前の経験の多様性に基づいてどのように構築されるかからインスピレーションを得ます。
この観察に動機づけられた我々は、以前の経験に基づいて、新しい(以前は達成不可能だった)振る舞いを迅速に取得できるエージェントの開発に着手した。
具体的には,マルチタスク学習を用いて,生理学的に現実的な人間の手モデルであるmyohandを用いて,タスク非依存行動前駆者(myodex)を暗黙的に捉えた。
マイオデックスは, 数発の一般化や, 目立たない操作タスクの大きなレパートリーへの正の移動において, 有効性を示す。
myoDexを利用するエージェントは、蒸留ベースラインに比べて約3倍、約4倍高速なタスクを解くことができる。
先行研究は単一の筋骨格制御行動を合成するが、ミオデックスは、様々な接触豊富な行動を通じて偶発的な生理学的制御の学習を触媒する最初の一般化された操作である。
また,24自由度ハンドのデクスタリティ獲得に向けた筋骨格制御を超えて,我々のパラダイムの有効性を実証する。
Webサイト: https://sites.google.com/view/myodex
関連論文リスト
- DexCap: Scalable and Portable Mocap Data Collection System for Dexterous Manipulation [28.37054959647664]
人間の手の動きデータからの模倣学習は、現実世界の操作タスクにおいて、人間のような器用さでロボットを倒すための有望な道を示す。
携帯型ハンドモーションキャプチャシステムであるDexCapとDexILを紹介する。
論文 参考訳(メタデータ) (2024-03-12T16:23:49Z) - RealDex: Towards Human-like Grasping for Robotic Dexterous Hand [64.47045863999061]
本稿では,人間の行動パターンを取り入れた手の動きを正確に把握する先駆的データセットであるRealDexを紹介する。
RealDexは、現実のシナリオにおける認識、認識、操作を自動化するためのヒューマノイドロボットを進化させる上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-02-21T14:59:46Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - DexDeform: Dexterous Deformable Object Manipulation with Human
Demonstrations and Differentiable Physics [97.75188532559952]
人間の実演から巧妙な操作スキルを抽象化する原理的枠組みを提案する。
次に、イマジネーションにおけるアクション抽象化を計画する上で、デモを使ってスキルモデルをトレーニングします。
提案手法の有効性を評価するために,6つの難解な変形可能なオブジェクト操作タスクの組を導入する。
論文 参考訳(メタデータ) (2023-03-27T17:59:49Z) - GenDexGrasp: Generalizable Dexterous Grasping [28.949793299414086]
GenDexGraspは、一般化可能なグルーピングのための新しい手認識型グルーピングアルゴリズムである。
成功率の高い多種多様でもっともらしい把握ポーズを効率よく生成する。
GenDexGraspは成功率、推論速度、多様性の3方向トレードオフを実現している。
論文 参考訳(メタデータ) (2022-10-03T05:38:20Z) - Towards Human-Level Bimanual Dexterous Manipulation with Reinforcement
Learning [73.92475751508452]
Bimanual Dexterous Hands Benchmark (Bi-DexHands) は、数十のバイマニュアル操作タスクと数千のターゲットオブジェクトを備えた2つのデキスタラスハンドを含むシミュレータである。
Bi-DexHandsのタスクは、認知科学の文献によると、人間の運動能力のレベルが異なるように設計されている。
論文 参考訳(メタデータ) (2022-06-17T11:09:06Z) - DexVIP: Learning Dexterous Grasping with Human Hand Pose Priors from
Video [86.49357517864937]
DexVIPは,人間と物体のインタラクションビデオから,器用なロボットの把握を学習する手法である。
我々は、人間とオブジェクトのインタラクションビデオから把握した画像をキュレートし、エージェントの手のポーズに先行する。
DexVIPは、手ポーズの無い既存のアプローチや、特殊な遠隔操作機器に頼っている既存のアプローチと良好に比較できることを実証する。
論文 参考訳(メタデータ) (2022-02-01T00:45:57Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。