論文の概要: Learning Visual Tracking and Reaching with Deep Reinforcement Learning
on a UR10e Robotic Arm
- arxiv url: http://arxiv.org/abs/2308.14652v1
- Date: Mon, 28 Aug 2023 15:34:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 13:13:44.079101
- Title: Learning Visual Tracking and Reaching with Deep Reinforcement Learning
on a UR10e Robotic Arm
- Title(参考訳): ur10eロボットアームによる視覚追跡学習と深部強化学習による到達
- Authors: Colin Bellinger, Laurence Lamarche-Cliche
- Abstract要約: 強化学習アルゴリズムは、ロボットがそれらを再プログラミングすることなく、新しいタスクを完了するための最適な解を学習できる可能性を提供する。
強化学習における現在の最先端技術は、最適な性能を達成するために、高速なシミュレーションと並列化に依存している。
本稿では,産業用UR10eロボットへの深部強化学習の適用について概説する。
- 参考スコア(独自算出の注目度): 2.2168889407389445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As technology progresses, industrial and scientific robots are increasingly
being used in diverse settings. In many cases, however, programming the robot
to perform such tasks is technically complex and costly. To maximize the
utility of robots in industrial and scientific settings, they require the
ability to quickly shift from one task to another. Reinforcement learning
algorithms provide the potential to enable robots to learn optimal solutions to
complete new tasks without directly reprogramming them. The current
state-of-the-art in reinforcement learning, however, generally relies on fast
simulations and parallelization to achieve optimal performance. These are often
not possible in robotics applications. Thus, a significant amount of research
is required to facilitate the efficient and safe, training and deployment of
industrial and scientific reinforcement learning robots. This technical report
outlines our initial research into the application of deep reinforcement
learning on an industrial UR10e robot. The report describes the reinforcement
learning environments created to facilitate policy learning with the UR10e, a
robotic arm from Universal Robots, and presents our initial results in training
deep Q-learning and proximal policy optimization agents on the developed
reinforcement learning environments. Our results show that proximal policy
optimization learns a better, more stable policy with less data than deep
Q-learning. The corresponding code for this work is available at
\url{https://github.com/cbellinger27/bendRL_reacher_tracker}
- Abstract(参考訳): 技術が進歩するにつれて、産業用や科学用ロボットは様々な場面でますます使われている。
しかし多くの場合、そのようなタスクを実行するためにロボットをプログラミングするのは技術的に複雑でコストがかかる。
産業や科学におけるロボットの有用性を最大化するためには、あるタスクから別のタスクへ素早く移行する能力が必要である。
強化学習アルゴリズムは、ロボットが直接プログラミングすることなく、最適な解を学習し、新しいタスクを完了させることができる。
しかし、強化学習における現在の最先端は、最適性能を達成するために、一般的に高速なシミュレーションと並列化に依存している。
これらはしばしばロボット工学の応用では不可能である。
したがって、産業用および科学用強化学習ロボットの効率的かつ安全な訓練と展開を促進するために、かなりの量の研究が必要となる。
本技術報告では,産業用UR10eロボットへの深部強化学習の適用について概説する。
本報告では,ユニバーサルロボットのロボットアームであるur10eを用いて,ポリシー学習を容易にするために開発された強化学習環境について述べる。
以上の結果から,近位政策最適化はQ-Learningよりも少ないデータで,より良く,より安定した政策を学習することが示された。
対応するコードは \url{https://github.com/cbellinger27/bendrl_reacher_tracker} で入手できる。
関連論文リスト
- Simulation-Aided Policy Tuning for Black-Box Robot Learning [47.83474891747279]
本稿では,データ効率の向上に着目した新しいブラックボックスポリシー探索アルゴリズムを提案する。
このアルゴリズムはロボット上で直接学習し、シミュレーションを追加の情報源として扱い、学習プロセスを高速化する。
ロボットマニピュレータ上でのタスク学習の高速化と成功を,不完全なシミュレータの助けを借りて示す。
論文 参考訳(メタデータ) (2024-11-21T15:52:23Z) - Generalized Robot Learning Framework [10.03174544844559]
本稿では,様々なロボットや環境に容易に再現可能かつ伝達可能な,低コストなロボット学習フレームワークを提案する。
我々は,産業用ロボットにおいても,デプロイ可能な模倣学習をうまく適用できることを実証した。
論文 参考訳(メタデータ) (2024-09-18T15:34:31Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement
Learning [85.21378553454672]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Robot Learning on the Job: Human-in-the-Loop Autonomy and Learning
During Deployment [25.186525630548356]
Siriusは、人間とロボットが共同作業を行うための、原則化されたフレームワークである。
部分的に自律的なロボットは、意思決定の大部分を確実に行うことを任務としている。
タスク実行から収集したデータに対するポリシーの性能を改善するための新しい学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-15T18:53:39Z) - Accelerating Robot Learning of Contact-Rich Manipulations: A Curriculum
Learning Study [4.045850174820418]
本稿では,Domain Randomization(DR)と組み合わせたカリキュラム学習に基づく,コンタクトリッチな操作タスクのロボット学習の高速化に関する研究を行う。
挿入タスクのような位置制御ロボットによる複雑な産業組み立てタスクに対処する。
また,おもちゃのタスクを用いたシミュレーションでのみトレーニングを行う場合においても,現実のロボットに伝達可能なポリシーを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-04-27T11:08:39Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Efficient reinforcement learning control for continuum robots based on
Inexplicit Prior Knowledge [3.3645162441357437]
本稿では,未熟な事前知識に基づく効率的な強化学習手法を提案する。
本手法を用いることで、腱駆動ロボットのアクティブな視覚追跡と距離維持を実現することができる。
論文 参考訳(メタデータ) (2020-02-26T15:47:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。