論文の概要: Deep Adversarial Reinforcement Learning for Object Disentangling
- arxiv url: http://arxiv.org/abs/2003.03779v2
- Date: Wed, 17 Mar 2021 14:30:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 14:07:06.768639
- Title: Deep Adversarial Reinforcement Learning for Object Disentangling
- Title(参考訳): オブジェクト・アンタングリングのためのディープ・コンバーサリー強化学習
- Authors: Melvin Laux, Oleg Arenz, Jan Peters, Joni Pajarinen
- Abstract要約: 本稿では, 廃棄物の密接化を図り, 対人強化学習(ARL)フレームワークを提案する。
ARLフレームワークは、元のエージェントであるプロタゴニストを挑戦する状態に操るために訓練された敵を利用する。
本手法は,ロボット制御のためのエンドツーエンドシステムを用いて,難易度の高い物体分離タスクを学習することにより,シナリオの学習からテストまでを一般化できることを示す。
- 参考スコア(独自算出の注目度): 36.66974848126079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning in combination with improved training techniques and high
computational power has led to recent advances in the field of reinforcement
learning (RL) and to successful robotic RL applications such as in-hand
manipulation. However, most robotic RL relies on a well known initial state
distribution. In real-world tasks, this information is however often not
available. For example, when disentangling waste objects the actual position of
the robot w.r.t.\ the objects may not match the positions the RL policy was
trained for. To solve this problem, we present a novel adversarial
reinforcement learning (ARL) framework. The ARL framework utilizes an
adversary, which is trained to steer the original agent, the protagonist, to
challenging states. We train the protagonist and the adversary jointly to allow
them to adapt to the changing policy of their opponent. We show that our method
can generalize from training to test scenarios by training an end-to-end system
for robot control to solve a challenging object disentangling task. Experiments
with a KUKA LBR+ 7-DOF robot arm show that our approach outperforms the
baseline method in disentangling when starting from different initial states
than provided during training.
- Abstract(参考訳): 深層学習と改良されたトレーニング技術と高い計算能力が組み合わさって、強化学習(RL)の分野での進歩と、手動操作などのロボットRLアプリケーションの成功につながっている。
しかし、ほとんどのロボットRLはよく知られた初期状態分布に依存している。
しかし、現実世界のタスクでは、この情報は利用できないことが多い。
例えば、廃棄物を解体するとき、ロボットの実際の位置 w.r.t.\ はRLポリシーが訓練された位置と一致しないかもしれない。
この問題を解決するために,新しい対人強化学習(ARL)フレームワークを提案する。
ARLフレームワークは、元のエージェントであるプロタゴニストを挑戦する状態に操るために訓練された敵を利用する。
我々は、敵の方針の変化に適応できるように、主人公と敵を共同で訓練する。
本手法は,ロボット制御のためのエンドツーエンドシステムを訓練し,課題を解消することで,学習からシナリオテストへ一般化できることを示す。
kuka lbr+ 7-dofロボットアームを用いた実験により,訓練中の初期状態の異なる初期状態から開始した場合,本手法がベースライン法に勝ることを示した。
関連論文リスト
- Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - REBOOT: Reuse Data for Bootstrapping Efficient Real-World Dexterous
Manipulation [61.7171775202833]
本稿では,強化学習による巧妙な操作スキルの学習を効率化するシステムを提案する。
我々のアプローチの主な考え方は、サンプル効率のRLとリプレイバッファブートストラップの最近の進歩の統合である。
本システムでは,実世界の学習サイクルを,模倣に基づくピックアップポリシを通じて学習されたリセットを組み込むことで完遂する。
論文 参考訳(メタデータ) (2023-09-06T19:05:31Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Reinforcement Learning for UAV control with Policy and Reward Shaping [0.7127008801193563]
本研究では,RLエージェントが報酬形成と政策形成を同時に行うことで,ドローンを制御できるように指導する。
その結果,両手法を同時に訓練したエージェントは,政策ベースアプローチのみを用いて訓練したエージェントよりも報酬が低いことがわかった。
論文 参考訳(メタデータ) (2022-12-06T14:46:13Z) - Don't Start From Scratch: Leveraging Prior Data to Automate Robotic
Reinforcement Learning [70.70104870417784]
強化学習(RL)アルゴリズムは、ロボットシステムの自律的なスキル獲得を可能にするという約束を持っている。
現実のロボットRLは、通常、環境をリセットするためにデータ収集と頻繁な人間の介入を必要とする。
本研究では,従来のタスクから収集した多様なオフラインデータセットを効果的に活用することで,これらの課題にどのように対処できるかを検討する。
論文 参考訳(メタデータ) (2022-07-11T08:31:22Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Meta-Reinforcement Learning for Robotic Industrial Insertion Tasks [70.56451186797436]
本研究では,メタ強化学習を用いてシミュレーションの課題の大部分を解決する方法について検討する。
エージェントを訓練して現実の挿入タスクを成功させる手法を実証する。
論文 参考訳(メタデータ) (2020-04-29T18:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。