論文の概要: How to Train Your Robot with Deep Reinforcement Learning; Lessons We've
Learned
- arxiv url: http://arxiv.org/abs/2102.02915v1
- Date: Thu, 4 Feb 2021 22:09:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 12:55:06.900752
- Title: How to Train Your Robot with Deep Reinforcement Learning; Lessons We've
Learned
- Title(参考訳): 深層強化学習でロボットを訓練する方法 : 私たちが学んだこと
- Authors: Julian Ibarz and Jie Tan and Chelsea Finn and Mrinal Kalakrishnan and
Peter Pastor and Sergey Levine
- Abstract要約: 本稿では,ロボット深部RLのケーススタディをいくつか紹介する。
深部RLにおける一般的な課題と,それらの課題について論じる。
また、他の卓越した課題についても概説し、その多くが現実世界のロボティクスの設定に特有のものである。
- 参考スコア(独自算出の注目度): 111.06812202454364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning (RL) has emerged as a promising approach for
autonomously acquiring complex behaviors from low level sensor observations.
Although a large portion of deep RL research has focused on applications in
video games and simulated control, which does not connect with the constraints
of learning in real environments, deep RL has also demonstrated promise in
enabling physical robots to learn complex skills in the real world. At the same
time,real world robotics provides an appealing domain for evaluating such
algorithms, as it connects directly to how humans learn; as an embodied agent
in the real world. Learning to perceive and move in the real world presents
numerous challenges, some of which are easier to address than others, and some
of which are often not considered in RL research that focuses only on simulated
domains. In this review article, we present a number of case studies involving
robotic deep RL. Building off of these case studies, we discuss commonly
perceived challenges in deep RL and how they have been addressed in these
works. We also provide an overview of other outstanding challenges, many of
which are unique to the real-world robotics setting and are not often the focus
of mainstream RL research. Our goal is to provide a resource both for
roboticists and machine learning researchers who are interested in furthering
the progress of deep RL in the real world.
- Abstract(参考訳): 深部強化学習(Deep reinforcement learning, RL)は、低レベルのセンサー観測から複雑な振る舞いを自律的に取得するための、有望なアプローチである。
深層RL研究の大部分は、実環境における学習の制約に結びついていない、ビデオゲームやシミュレートされた制御の応用に焦点を当てているが、物理ロボットが現実世界で複雑なスキルを学べる可能性も示している。
同時に、現実世界のロボット工学は、人間の学習方法に直接関連し、現実世界の具体化エージェントとして、そのようなアルゴリズムを評価する魅力的な領域を提供する。
現実世界での知覚と移動の学習には多くの課題があり、そのうちのいくつかは他のものよりも扱いやすく、そのうちのいくつかはシミュレートされたドメインのみに焦点を当てたRL研究では考慮されないことが多い。
本稿では,ロボット深部RLに関するケーススタディをいくつか紹介する。
これらのケーススタディをもとに,深層rlにおける共通認識される課題と,これらの取り組みにおいてどのように対処されてきたかについて議論する。
また,他の課題についても概説する。その多くが実世界のロボット工学に特有のものであり,主流のRL研究の焦点ではないことが多い。
私たちの目標は、現実世界の深層RLの進歩に興味のあるロボット学者と機械学習研究者の両方にリソースを提供することです。
関連論文リスト
- A Retrospective on the Robot Air Hockey Challenge: Benchmarking Robust, Reliable, and Safe Learning Techniques for Real-world Robotics [53.33976793493801]
私たちは、NeurIPS 2023カンファレンスでRobot Air Hockey Challengeを組織しました。
我々は、シム・トゥ・リアルギャップ、低レベルの制御問題、安全性問題、リアルタイム要件、実世界のデータの限られた可用性など、ロボット工学における実践的な課題に焦点を当てる。
その結果、学習に基づくアプローチと事前知識を組み合わせたソリューションは、実際のデプロイメントが困難である場合にデータのみに依存するソリューションよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-11-08T17:20:47Z) - Deep Reinforcement Learning for Robotics: A Survey of Real-World Successes [44.619927796194915]
強化学習(RL)は、広範囲のアプリケーションで非常に有望である。
ロボットの問題は、物理世界との相互作用の複雑さとコストから起因して、RLの応用に根本的な困難をもたらす。
この調査は、RLの能力を活用して一般的な実世界のロボットシステムを構築するための、RLの実践者とロボティクスの両方に洞察を提供するように設計されている。
論文 参考訳(メタデータ) (2024-08-07T04:35:38Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Automated Reinforcement Learning (AutoRL): A Survey and Open Problems [92.73407630874841]
AutoRL(Automated Reinforcement Learning)には、AutoMLの標準的なアプリケーションだけでなく、RL特有の課題も含まれている。
我々は共通の分類法を提供し、各領域を詳細に議論し、今後の研究者にとって関心のあるオープンな問題を提起する。
論文 参考訳(メタデータ) (2022-01-11T12:41:43Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Robust Reinforcement Learning-based Autonomous Driving Agent for
Simulation and Real World [0.0]
本稿では,Deep Q-Networks (DQN) を用いた自律型ロボット制御を実現するDRLベースのアルゴリズムを提案する。
本手法では,エージェントはシミュレーション環境で訓練され,シミュレーション環境と実環境環境の両方をナビゲートすることができる。
トレーニングされたエージェントは限られたハードウェアリソース上で動作することができ、そのパフォーマンスは最先端のアプローチに匹敵する。
論文 参考訳(メタデータ) (2020-09-23T15:23:54Z) - Deep Reinforcement Learning with Interactive Feedback in a Human-Robot
Environment [1.2998475032187096]
対話型フィードバックを用いた深層強化学習手法を提案し,人間ロボットのシナリオで家庭内課題を学習する。
シミュレーションロボットアームを用いた3つの学習手法を比較し,異なる物体を整理する作業について検討した。
その結果、学習エージェントは、エージェントIDeepRLまたはヒューマンIDeepRLを使用して、与えられたタスクを早期に完了し、自律的なDeepRLアプローチと比較して誤りが少ないことがわかった。
論文 参考訳(メタデータ) (2020-07-07T11:55:27Z) - Deep reinforcement learning from human preferences [19.871618959160692]
我々は、軌道セグメントのペア間の人間の選好(非専門家)の観点から定義された目標を探索する。
提案手法は,報酬関数を使わずに複雑なRLタスクを効果的に解くことができることを示す。
これにより、人間の監視コストを十分に低減し、最先端のRLシステムに実用的に適用することができる。
論文 参考訳(メタデータ) (2017-06-12T17:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。