論文の概要: Rapid Motor Adaptation for Robotic Manipulator Arms
- arxiv url: http://arxiv.org/abs/2312.04670v1
- Date: Thu, 7 Dec 2023 20:11:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 17:08:13.249127
- Title: Rapid Motor Adaptation for Robotic Manipulator Arms
- Title(参考訳): ロボットマニピュレータアームの高速モータ適応
- Authors: Yichao Liang, Kevin Ellis, Jo\~ao Henriques
- Abstract要約: 汎用的な操作スキルの開発は、AIの具体化における中核的な課題である。
Rapid Motor Adaptation (RMA)はこの課題に対して有望な解決策を提供する。
我々は、様々な操作タスクにおいて、迅速な運動適応に適したエージェントを開発する。
- 参考スコア(独自算出の注目度): 7.177860945843822
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Developing generalizable manipulation skills is a core challenge in embodied
AI. This includes generalization across diverse task configurations,
encompassing variations in object shape, density, friction coefficient, and
external disturbances such as forces applied to the robot. Rapid Motor
Adaptation (RMA) offers a promising solution to this challenge. It posits that
essential hidden variables influencing an agent's task performance, such as
object mass and shape, can be effectively inferred from the agent's action and
proprioceptive history. Drawing inspiration from RMA in locomotion and in-hand
rotation, we use depth perception to develop agents tailored for rapid motor
adaptation in a variety of manipulation tasks. We evaluated our agents on four
challenging tasks from the Maniskill2 benchmark, namely pick-and-place
operations with hundreds of objects from the YCB and EGAD datasets, peg
insertion with precise position and orientation, and operating a variety of
faucets and handles, with customized environment variations. Empirical results
demonstrate that our agents surpass state-of-the-art methods like automatic
domain randomization and vision-based policies, obtaining better generalization
performance and sample efficiency.
- Abstract(参考訳): 汎用的な操作スキルの開発は、AIの具体化における中核的な課題である。
これには、さまざまなタスク構成の一般化、物体形状、密度、摩擦係数、ロボットに適用される力などの外的外乱などが含まれる。
Rapid Motor Adaptation (RMA)はこの課題に対して有望な解決策を提供する。
オブジェクトの質量や形状といったエージェントのタスクパフォーマンスに影響を与える必須の隠れた変数は、エージェントの作用や固有的履歴から効果的に推測できると仮定する。
ローコモーションや手動回転におけるRMAからのインスピレーションを得て,様々な操作タスクにおいて,迅速な運動適応に適したエージェントを開発する。
Maniskill2ベンチマークから,YCBおよびEGADデータセットから数百のオブジェクトをピックアップ・アンド・プレース操作,正確な位置と向きのペグ挿入,さまざまなファセットとハンドルの操作,環境のカスタマイズなど,4つの課題に対してエージェントを評価した。
経験的な結果から,エージェントは自動ドメインランダム化や視覚に基づくポリシといった最先端の手法を上回っており,よりよい一般化性能とサンプル効率を得ることができた。
関連論文リスト
- The Art of Imitation: Learning Long-Horizon Manipulation Tasks from Few Demonstrations [13.747258771184372]
TP-GMMの適用にはいくつかのオープンな課題がある。
我々はロボットのエンドエフェクター速度を方向と大きさに分解する。
次に、複雑な実証軌道からセグメントとシーケンスのスキルを抽出する。
私たちのアプローチでは,5つのデモから複雑な操作タスクを学習することが可能です。
論文 参考訳(メタデータ) (2024-07-18T12:01:09Z) - External Model Motivated Agents: Reinforcement Learning for Enhanced Environment Sampling [3.536024441537599]
強化学習(RL)エージェントとは異なり、人間は環境の変化において有能なマルチタスクのままである。
環境変化における外部モデルの適応効率を向上させるために,RLエージェントのエージェント影響フレームワークを提案する。
提案手法は,効率と性能の両面を測る指標に対する外部モデル適応の観点から,ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-28T23:31:22Z) - Adaptive Manipulation using Behavior Trees [12.061325774210392]
本稿では,タスク実行中の視覚的・非視覚的観察にロボットが迅速に適応できる適応行動木を提案する。
産業環境でよく見られる多くのタスクに対して、我々のアプローチを検証します。
論文 参考訳(メタデータ) (2024-06-20T18:01:36Z) - HAZARD Challenge: Embodied Decision Making in Dynamically Changing
Environments [93.94020724735199]
HAZARDは、火災、洪水、風などの3つの予期せぬ災害シナリオで構成されている。
このベンチマークにより、さまざまなパイプラインで自律エージェントの意思決定能力を評価することができる。
論文 参考訳(メタデータ) (2024-01-23T18:59:43Z) - RoboAgent: Generalization and Efficiency in Robot Manipulation via
Semantic Augmentations and Action Chunking [54.776890150458385]
マルチタスク操作能力を持つユニバーサルエージェントを訓練するための効率的なシステムを開発した。
私たちは、12のスキルを持つ1つのエージェントを訓練することができ、38のタスクでその一般化を実証することができます。
平均すると、RoboAgentは目に見えない状況において、従来の方法よりも40%以上性能が高い。
論文 参考訳(メタデータ) (2023-09-05T03:14:39Z) - Instruction-driven history-aware policies for robotic manipulations [82.25511767738224]
複数の入力を考慮に入れた統一型トランスフォーマー方式を提案する。
特に,我々のトランスフォーマーアーキテクチャは,(i)自然言語命令と(ii)多視点シーン観測を統合している。
RLBenchベンチマークと実世界のロボットを用いて,本手法の評価を行った。
論文 参考訳(メタデータ) (2022-09-11T16:28:25Z) - Generalizing Decision Making for Automated Driving with an Invariant
Environment Representation using Deep Reinforcement Learning [55.41644538483948]
現在のアプローチは、トレーニングデータを超えてよく一般化されないか、または可変数のトラフィック参加者を考慮することができない。
本研究では,エゴ車の観点から不変環境表現を提案する。
この抽象化により,エージェントが未確認シナリオに対してうまく一般化できることが示される。
論文 参考訳(メタデータ) (2021-02-12T20:37:29Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z) - Learning Compliance Adaptation in Contact-Rich Manipulation [81.40695846555955]
本稿では,コンタクトリッチタスクに必要な力プロファイルの予測モデルを学習するための新しいアプローチを提案する。
このアプローチは、双方向Gated Recurrent Units (Bi-GRU) に基づく異常検出と適応力/インピーダンス制御を組み合わせたものである。
論文 参考訳(メタデータ) (2020-05-01T05:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。