論文の概要: Efficient Skill Acquisition for Complex Manipulation Tasks in Obstructed
Environments
- arxiv url: http://arxiv.org/abs/2303.03365v1
- Date: Mon, 6 Mar 2023 18:49:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 14:52:43.535721
- Title: Efficient Skill Acquisition for Complex Manipulation Tasks in Obstructed
Environments
- Title(参考訳): 障害環境における複雑な操作タスクの効率的なスキル獲得
- Authors: Jun Yamada, Jack Collins, Ingmar Posner
- Abstract要約: 本稿では,オブジェクト指向生成モデル(OCGM)を多目的ゴール識別に活用する,効率的なスキル獲得システムを提案する。
OCGMは、新しいシーンでワンショットターゲットオブジェクトの識別と再識別を可能にし、MPは障害物を避けながらロボットを対象オブジェクトに誘導することができる。
- 参考スコア(独自算出の注目度): 18.348489257164356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data efficiency in robotic skill acquisition is crucial for operating robots
in varied small-batch assembly settings. To operate in such environments,
robots must have robust obstacle avoidance and versatile goal conditioning
acquired from only a few simple demonstrations. Existing approaches, however,
fall short of these requirements. Deep reinforcement learning (RL) enables a
robot to learn complex manipulation tasks but is often limited to small task
spaces in the real world due to sample inefficiency and safety concerns. Motion
planning (MP) can generate collision-free paths in obstructed environments, but
cannot solve complex manipulation tasks and requires goal states often
specified by a user or object-specific pose estimator. In this work, we propose
a system for efficient skill acquisition that leverages an object-centric
generative model (OCGM) for versatile goal identification to specify a goal for
MP combined with RL to solve complex manipulation tasks in obstructed
environments. Specifically, OCGM enables one-shot target object identification
and re-identification in new scenes, allowing MP to guide the robot to the
target object while avoiding obstacles. This is combined with a skill
transition network, which bridges the gap between terminal states of MP and
feasible start states of a sample-efficient RL policy. The experiments
demonstrate that our OCGM-based one-shot goal identification provides
competitive accuracy to other baseline approaches and that our modular
framework outperforms competitive baselines, including a state-of-the-art RL
algorithm, by a significant margin for complex manipulation tasks in obstructed
environments.
- Abstract(参考訳): ロボットのスキル獲得におけるデータの効率性は、様々な小さなバッチ組立環境でロボットを操作するために不可欠である。
このような環境で運用するには、ロボットはいくつかの単純なデモンストレーションから得られる堅牢な障害物回避と汎用的な目標条件を持つ必要がある。
しかし、既存のアプローチはこれらの要件を満たさない。
deep reinforcement learning(rl)はロボットが複雑な操作タスクを学習することを可能にするが、サンプルの非効率性や安全性の懸念から、現実世界の小さなタスク空間に限定されることが多い。
モーションプランニング(mp)は、妨害された環境で衝突のない経路を生成するが、複雑な操作タスクは解決できず、ユーザーやオブジェクト固有のポーズ推定器によって指定されるゴール状態を必要とする。
本研究では,オブジェクト指向生成モデル(OCGM)を多目的目標同定に活用し,MPとRLの組み合わせによる複雑な操作課題の解決を目的とした,効率的なスキル獲得システムを提案する。
具体的には、ocgmは新しいシーンでワンショットのターゲットオブジェクトの識別と再識別を可能にし、mpは障害物を避けながらロボットをターゲットオブジェクトに誘導できる。
これは、MPの終端状態とサンプル効率のよいRLポリシーの実行可能な開始状態とのギャップを埋めるスキル移行ネットワークと組み合わせられる。
実験では,OCGMをベースとしたワンショットゴール識別により,他のベースラインアプローチと競合する精度が得られ,モジュラーフレームワークは,現状のRLアルゴリズムを含む競争ベースラインを,障害環境における複雑な操作タスクのかなりのマージンで上回ることを示した。
関連論文リスト
- Enhancing Robotic Navigation: An Evaluation of Single and
Multi-Objective Reinforcement Learning Strategies [0.9208007322096532]
本研究では,ロボットが目的達成に向けて効果的に移動できるよう訓練するための単目的と多目的の強化学習法の比較分析を行った。
報酬関数を変更して報酬のベクターを返却し、それぞれ異なる目的に関連付けることで、ロボットはそれぞれの目標を効果的にバランスさせるポリシーを学ぶ。
論文 参考訳(メタデータ) (2023-12-13T08:00:26Z) - Mission-driven Exploration for Accelerated Deep Reinforcement Learning
with Temporal Logic Task Specifications [11.812602599752294]
未知の構造を持つ環境で動作している未知のダイナミクスを持つロボットについて考察する。
我々の目標は、オートマトン符号化されたタスクを満足する確率を最大化する制御ポリシーを合成することである。
そこで本研究では,制御ポリシーを類似手法と比較して顕著に高速に学習できるDRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-28T18:59:58Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment
Regularization [57.71118589124002]
継続的な学習は破滅的な忘れ込みという課題を克服しようと試み、そこでは新しいタスクを解くための学習が、モデルが以前に学習した情報を忘れる原因となる。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れ込みを抑える新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Distributional Instance Segmentation: Modeling Uncertainty and High
Confidence Predictions with Latent-MaskRCNN [77.0623472106488]
本稿では,潜在符号を用いた分散インスタンス分割モデルのクラスについて検討する。
ロボットピッキングへの応用として,高い精度を実現するための信頼性マスク手法を提案する。
本手法は,新たにリリースした曖昧なシーンのデータセットを含め,ロボットシステムにおける致命的なエラーを著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-05-03T05:57:29Z) - AdverSAR: Adversarial Search and Rescue via Multi-Agent Reinforcement
Learning [4.843554492319537]
本稿では,敵対的エージェント間コミュニケーションの存在下で,ロボットの戦略を効率的に調整するアルゴリズムを提案する。
ロボットは対象の場所について事前の知識を持っておらず、隣接するロボットのサブセットのみといつでも対話できると仮定される。
提案手法の有効性は, グリッドワールド環境のプロトタイプで実証した。
論文 参考訳(メタデータ) (2022-12-20T08:13:29Z) - Leveraging Sequentiality in Reinforcement Learning from a Single
Demonstration [68.94506047556412]
本稿では,複雑なロボットタスクの制御ポリシーを1つの実演で学習するために,シーケンシャルなバイアスを活用することを提案する。
本研究は, ヒューマノイド移動やスタンドアップなど, 模擬課題のいくつかを, 前例のないサンプル効率で解くことができることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:28:40Z) - Regularized Deep Signed Distance Fields for Reactive Motion Generation [30.792481441975585]
距離に基づく制約は、ロボットが自分の行動を計画し、安全に行動できるようにするための基本となる。
本研究では,任意のスケールでスムーズな距離場を計算できる単一暗黙関数ReDSDFを提案する。
共有作業空間における全身制御(WBC)と安全なヒューマンロボットインタラクション(HRI)のための代表的タスクにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-09T14:21:32Z) - Bayesian Meta-Learning for Few-Shot Policy Adaptation Across Robotic
Platforms [60.59764170868101]
強化学習手法は、重要な性能を達成できるが、同じロボットプラットフォームで収集される大量のトレーニングデータを必要とする。
私たちはそれを、さまざまなロボットプラットフォームで共有される共通の構造を捉えるモデルを見つけることを目標とする、数ショットのメタラーニング問題として定式化します。
我々は,400個のロボットを用いて,実ロボットピッキング作業とシミュレーションリーチの枠組みを実験的に評価した。
論文 参考訳(メタデータ) (2021-03-05T14:16:20Z) - CausalWorld: A Robotic Manipulation Benchmark for Causal Structure and
Transfer Learning [138.40338621974954]
CausalWorldは、ロボット操作環境における因果構造と伝達学習のベンチマークである。
タスクは、ブロックのセットから3D形状を構築することで構成される。
論文 参考訳(メタデータ) (2020-10-08T23:01:13Z) - Variable Compliance Control for Robotic Peg-in-Hole Assembly: A Deep
Reinforcement Learning Approach [4.045850174820418]
ホールの位置不確実性を考慮したペグ・イン・ホール問題の解法を提案する。
位置制御ロボットのための学習フレームワークを,コンタクトリッチ挿入タスクにおいて広範囲に評価した。
論文 参考訳(メタデータ) (2020-08-24T06:53:19Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。