論文の概要: Accelerating Robot Learning of Contact-Rich Manipulations: A Curriculum
Learning Study
- arxiv url: http://arxiv.org/abs/2204.12844v2
- Date: Thu, 28 Apr 2022 06:57:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 10:35:39.761742
- Title: Accelerating Robot Learning of Contact-Rich Manipulations: A Curriculum
Learning Study
- Title(参考訳): コンタクトリッチマニピュレーションの高速化ロボット学習 : カリキュラム学習研究
- Authors: Cristian C. Beltran-Hernandez, Damien Petit, Ixchel G.
Ramirez-Alpizar, Kensuke Harada
- Abstract要約: 本稿では,Domain Randomization(DR)と組み合わせたカリキュラム学習に基づく,コンタクトリッチな操作タスクのロボット学習の高速化に関する研究を行う。
挿入タスクのような位置制御ロボットによる複雑な産業組み立てタスクに対処する。
また,おもちゃのタスクを用いたシミュレーションでのみトレーニングを行う場合においても,現実のロボットに伝達可能なポリシーを学習できることが示唆された。
- 参考スコア(独自算出の注目度): 4.045850174820418
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The Reinforcement Learning (RL) paradigm has been an essential tool for
automating robotic tasks. Despite the advances in RL, it is still not widely
adopted in the industry due to the need for an expensive large amount of robot
interaction with its environment. Curriculum Learning (CL) has been proposed to
expedite learning. However, most research works have been only evaluated in
simulated environments, from video games to robotic toy tasks. This paper
presents a study for accelerating robot learning of contact-rich manipulation
tasks based on Curriculum Learning combined with Domain Randomization (DR). We
tackle complex industrial assembly tasks with position-controlled robots, such
as insertion tasks. We compare different curricula designs and sampling
approaches for DR. Based on this study, we propose a method that significantly
outperforms previous work, which uses DR only (No CL is used), with less than a
fifth of the training time (samples). Results also show that even when training
only in simulation with toy tasks, our method can learn policies that can be
transferred to the real-world robot. The learned policies achieved success
rates of up to 86\% on real-world complex industrial insertion tasks (with
tolerances of $\pm 0.01~mm$) not seen during the training.
- Abstract(参考訳): 強化学習(RL)パラダイムは、ロボットタスクの自動化に不可欠なツールである。
RLの進歩にもかかわらず、高価な大量のロボットが環境と対話する必要があるため、業界ではまだ広く採用されていない。
カリキュラム学習(cl)は、学習を促進するために提案されている。
しかし、ほとんどの研究は、ビデオゲームからロボット玩具タスクまで、シミュレーション環境でのみ評価されている。
本稿では,Domain Randomization(DR)と組み合わせたカリキュラム学習に基づく,コンタクトリッチな操作タスクのロボット学習の高速化に関する研究を行う。
挿入タスクのような位置制御ロボットを用いて複雑な産業組み立てタスクに取り組む。
そこで本研究では,本研究では,前回の研究に比較して,トレーニング時間(例)の5分の1未満で,drのみを使用する(clは使用しない)手法を著しく上回る手法を提案する。
また,玩具作業によるシミュレーションでのみトレーニングを行う場合においても,実世界ロボットに移行可能な方針を学習できることを示した。
学習した政策は、実世界の複雑な産業用挿入作業で最大86\%の成功率を達成し、訓練中には見られなかった(許容値$\pm 0.01~mm$)。
関連論文リスト
- Generalized Robot Learning Framework [10.03174544844559]
本稿では,様々なロボットや環境に容易に再現可能かつ伝達可能な,低コストなロボット学習フレームワークを提案する。
我々は,産業用ロボットにおいても,デプロイ可能な模倣学習をうまく適用できることを実証した。
論文 参考訳(メタデータ) (2024-09-18T15:34:31Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement
Learning [85.21378553454672]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Learning Visual Tracking and Reaching with Deep Reinforcement Learning
on a UR10e Robotic Arm [2.2168889407389445]
強化学習アルゴリズムは、ロボットがそれらを再プログラミングすることなく、新しいタスクを完了するための最適な解を学習できる可能性を提供する。
強化学習における現在の最先端技術は、最適な性能を達成するために、高速なシミュレーションと並列化に依存している。
本稿では,産業用UR10eロボットへの深部強化学習の適用について概説する。
論文 参考訳(メタデータ) (2023-08-28T15:34:43Z) - Don't Start From Scratch: Leveraging Prior Data to Automate Robotic
Reinforcement Learning [70.70104870417784]
強化学習(RL)アルゴリズムは、ロボットシステムの自律的なスキル獲得を可能にするという約束を持っている。
現実のロボットRLは、通常、環境をリセットするためにデータ収集と頻繁な人間の介入を必要とする。
本研究では,従来のタスクから収集した多様なオフラインデータセットを効果的に活用することで,これらの課題にどのように対処できるかを検討する。
論文 参考訳(メタデータ) (2022-07-11T08:31:22Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - A Framework for Efficient Robotic Manipulation [79.10407063260473]
単一のロボットアームがピクセルからスパースリワード操作ポリシーを学習できることを示します。
デモは10回しかなく、単一のロボットアームがピクセルからスパースリワード操作のポリシーを学習できることを示しています。
論文 参考訳(メタデータ) (2020-12-14T22:18:39Z) - SQUIRL: Robust and Efficient Learning from Video Demonstration of
Long-Horizon Robotic Manipulation Tasks [8.756012472587601]
深層強化学習(RL)は複雑な操作タスクを学習するために用いられる。
RLは、ロボットが大量の現実世界の経験を収集する必要がある。
SQUIRLは、単一のビデオデモしか持たない、新しいが関連するロングホライゾンタスクを実行する。
論文 参考訳(メタデータ) (2020-03-10T20:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。