論文の概要: Efficient Skill Acquisition for Complex Manipulation Tasks in Obstructed
Environments
- arxiv url: http://arxiv.org/abs/2303.03365v1
- Date: Mon, 6 Mar 2023 18:49:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 14:52:43.535721
- Title: Efficient Skill Acquisition for Complex Manipulation Tasks in Obstructed
Environments
- Title(参考訳): 障害環境における複雑な操作タスクの効率的なスキル獲得
- Authors: Jun Yamada, Jack Collins, Ingmar Posner
- Abstract要約: 本稿では,オブジェクト指向生成モデル(OCGM)を多目的ゴール識別に活用する,効率的なスキル獲得システムを提案する。
OCGMは、新しいシーンでワンショットターゲットオブジェクトの識別と再識別を可能にし、MPは障害物を避けながらロボットを対象オブジェクトに誘導することができる。
- 参考スコア(独自算出の注目度): 18.348489257164356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data efficiency in robotic skill acquisition is crucial for operating robots
in varied small-batch assembly settings. To operate in such environments,
robots must have robust obstacle avoidance and versatile goal conditioning
acquired from only a few simple demonstrations. Existing approaches, however,
fall short of these requirements. Deep reinforcement learning (RL) enables a
robot to learn complex manipulation tasks but is often limited to small task
spaces in the real world due to sample inefficiency and safety concerns. Motion
planning (MP) can generate collision-free paths in obstructed environments, but
cannot solve complex manipulation tasks and requires goal states often
specified by a user or object-specific pose estimator. In this work, we propose
a system for efficient skill acquisition that leverages an object-centric
generative model (OCGM) for versatile goal identification to specify a goal for
MP combined with RL to solve complex manipulation tasks in obstructed
environments. Specifically, OCGM enables one-shot target object identification
and re-identification in new scenes, allowing MP to guide the robot to the
target object while avoiding obstacles. This is combined with a skill
transition network, which bridges the gap between terminal states of MP and
feasible start states of a sample-efficient RL policy. The experiments
demonstrate that our OCGM-based one-shot goal identification provides
competitive accuracy to other baseline approaches and that our modular
framework outperforms competitive baselines, including a state-of-the-art RL
algorithm, by a significant margin for complex manipulation tasks in obstructed
environments.
- Abstract(参考訳): ロボットのスキル獲得におけるデータの効率性は、様々な小さなバッチ組立環境でロボットを操作するために不可欠である。
このような環境で運用するには、ロボットはいくつかの単純なデモンストレーションから得られる堅牢な障害物回避と汎用的な目標条件を持つ必要がある。
しかし、既存のアプローチはこれらの要件を満たさない。
deep reinforcement learning(rl)はロボットが複雑な操作タスクを学習することを可能にするが、サンプルの非効率性や安全性の懸念から、現実世界の小さなタスク空間に限定されることが多い。
モーションプランニング(mp)は、妨害された環境で衝突のない経路を生成するが、複雑な操作タスクは解決できず、ユーザーやオブジェクト固有のポーズ推定器によって指定されるゴール状態を必要とする。
本研究では,オブジェクト指向生成モデル(OCGM)を多目的目標同定に活用し,MPとRLの組み合わせによる複雑な操作課題の解決を目的とした,効率的なスキル獲得システムを提案する。
具体的には、ocgmは新しいシーンでワンショットのターゲットオブジェクトの識別と再識別を可能にし、mpは障害物を避けながらロボットをターゲットオブジェクトに誘導できる。
これは、MPの終端状態とサンプル効率のよいRLポリシーの実行可能な開始状態とのギャップを埋めるスキル移行ネットワークと組み合わせられる。
実験では,OCGMをベースとしたワンショットゴール識別により,他のベースラインアプローチと競合する精度が得られ,モジュラーフレームワークは,現状のRLアルゴリズムを含む競争ベースラインを,障害環境における複雑な操作タスクのかなりのマージンで上回ることを示した。
関連論文リスト
- Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [70.93622520400385]
本稿では,VLAに基づくロボットシステムのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する,標的のない位置認識型攻撃目標を提案する。
また、カメラの視野内に小さなカラフルなパッチを配置し、デジタル環境と物理環境の両方で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - COHERENT: Collaboration of Heterogeneous Multi-Robot System with Large Language Models [49.24666980374751]
COHERENTは、異種マルチロボットシステムの協調のための新しいLCMベースのタスク計画フレームワークである。
提案-実行-フィードバック-調整機構は,個々のロボットに対して動作を分解・割り当てするように設計されている。
実験の結果,我々の研究は,成功率と実行効率の面で,従来の手法をはるかに上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2024-09-23T15:53:41Z) - Sparse Diffusion Policy: A Sparse, Reusable, and Flexible Policy for Robot Learning [61.294110816231886]
我々はスパース・リユース・フレキシブル・ポリシー、スパース・ディフュージョン・ポリシー(SDP)を導入する。
SDPは、エキスパートとスキルを選択的に活性化し、モデル全体をトレーニングすることなく、効率的でタスク固有の学習を可能にする。
デモとコードはhttps://forrest-110.io/sparse_diffusion_policy/にある。
論文 参考訳(メタデータ) (2024-07-01T17:59:56Z) - GenCHiP: Generating Robot Policy Code for High-Precision and Contact-Rich Manipulation Tasks [28.556818911535498]
大規模言語モデル(LLM)はロボットポリシーコードの生成に成功しているが、今のところこれらの結果はハイレベルなタスクに限られている。
適切なアクション空間では、LLMは様々なコンタクトリッチかつ高精度な操作タスクのためのポリシーを生成することができる。
論文 参考訳(メタデータ) (2024-04-09T22:47:25Z) - Enhancing Robotic Navigation: An Evaluation of Single and
Multi-Objective Reinforcement Learning Strategies [0.9208007322096532]
本研究では,ロボットが目的達成に向けて効果的に移動できるよう訓練するための単目的と多目的の強化学習法の比較分析を行った。
報酬関数を変更して報酬のベクターを返却し、それぞれ異なる目的に関連付けることで、ロボットはそれぞれの目標を効果的にバランスさせるポリシーを学ぶ。
論文 参考訳(メタデータ) (2023-12-13T08:00:26Z) - AdverSAR: Adversarial Search and Rescue via Multi-Agent Reinforcement
Learning [4.843554492319537]
本稿では,敵対的エージェント間コミュニケーションの存在下で,ロボットの戦略を効率的に調整するアルゴリズムを提案する。
ロボットは対象の場所について事前の知識を持っておらず、隣接するロボットのサブセットのみといつでも対話できると仮定される。
提案手法の有効性は, グリッドワールド環境のプロトタイプで実証した。
論文 参考訳(メタデータ) (2022-12-20T08:13:29Z) - Leveraging Sequentiality in Reinforcement Learning from a Single
Demonstration [68.94506047556412]
本稿では,複雑なロボットタスクの制御ポリシーを1つの実演で学習するために,シーケンシャルなバイアスを活用することを提案する。
本研究は, ヒューマノイド移動やスタンドアップなど, 模擬課題のいくつかを, 前例のないサンプル効率で解くことができることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:28:40Z) - CausalWorld: A Robotic Manipulation Benchmark for Causal Structure and
Transfer Learning [138.40338621974954]
CausalWorldは、ロボット操作環境における因果構造と伝達学習のベンチマークである。
タスクは、ブロックのセットから3D形状を構築することで構成される。
論文 参考訳(メタデータ) (2020-10-08T23:01:13Z) - Variable Compliance Control for Robotic Peg-in-Hole Assembly: A Deep
Reinforcement Learning Approach [4.045850174820418]
ホールの位置不確実性を考慮したペグ・イン・ホール問題の解法を提案する。
位置制御ロボットのための学習フレームワークを,コンタクトリッチ挿入タスクにおいて広範囲に評価した。
論文 参考訳(メタデータ) (2020-08-24T06:53:19Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。