論文の概要: How To Train Your HERON
- arxiv url: http://arxiv.org/abs/2102.10357v1
- Date: Sat, 20 Feb 2021 14:22:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 16:23:21.611944
- Title: How To Train Your HERON
- Title(参考訳): ヘロンのトレーニング方法
- Authors: Antoine Richard, Stephanie Aravecchia, Thomas Schillaci, Matthieu
Geist, Cedric Pradalier
- Abstract要約: シミュレーションでモデルベースのRLエージェントを訓練し、湖岸や河川岸を追従し、ゼロショット設定で本物の無人サーフェス車両に適用します。
RL エージェントは,状態認識型 Model-Predictive-Controller よりも堅牢で,高速で,正確であることを示す。
- 参考スコア(独自算出の注目度): 15.49567616697007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we apply Deep Reinforcement Learning (Deep RL) and Domain
Randomization to solve a navigation task in a natural environment relying
solely on a 2D laser scanner. We train a model-based RL agent in simulation to
follow lake and river shores and apply it on a real Unmanned Surface Vehicle in
a zero-shot setup. We demonstrate that even though the agent has not been
trained in the real world, it can fulfill its task successfully and adapt to
changes in the robot's environment and dynamics. Finally, we show that the RL
agent is more robust, faster, and more accurate than a state-aware
Model-Predictive-Controller.
- Abstract(参考訳): 本稿では、Deep Reinforcement Learning(Deep RL)とDomain Randomizationを適用し、2Dレーザースキャナーのみに依存する自然環境でのナビゲーションタスクを解決する。
シミュレーションでモデルベースのRLエージェントを訓練し、湖岸や河川岸を追従し、ゼロショット設定で本物の無人サーフェス車両に適用します。
私たちは、エージェントが現実世界で訓練されていないにもかかわらず、そのタスクを成功裏に達成し、ロボットの環境とダイナミクスの変化に適応できることを示しています。
最後に、RLエージェントがステートアウェアなModel-Predictive-Controllerよりも堅牢で高速で正確であることを示します。
関連論文リスト
- An Open-source Sim2Real Approach for Sensor-independent Robot Navigation in a Grid [0.0]
シミュレーション環境で訓練されたエージェントと、同様の環境でロボットをナビゲートする実際の実装とのギャップを橋渡しする。
具体的には、Gymnasium Frozen Lakeにインスパイアされた現実世界のグリッドのような環境で四足歩行ロボットをナビゲートすることに焦点を当てる。
論文 参考訳(メタデータ) (2024-11-05T20:18:29Z) - Automatic Environment Shaping is the Next Frontier in RL [20.894840942319323]
多くのロボット学者は、夕方にタスクを持ったロボットを提示し、翌朝にそのタスクを解くことができるロボットを見つけることを夢見ている。
実際の強化学習は、挑戦的なロボティクスのタスクにおいて素晴らしいパフォーマンスを達成したが、そのタスクをRLに相応しい方法でセットアップするには、相当な人的努力が必要である。
政策最適化やその他のアイデアのアルゴリズムによる改善は、トレーニング環境を形作る際の主要なボトルネックを解決するために導かれるべきだ、という私たちの立場です。
論文 参考訳(メタデータ) (2024-07-23T05:22:29Z) - Gaussian Splatting to Real World Flight Navigation Transfer with Liquid Networks [93.38375271826202]
本研究では,シミュレート・トゥ・リアルな視覚四重項ナビゲーションタスクにおける分布シフトに対する一般化とロバスト性を改善する手法を提案する。
まず,擬似飛行力学とガウススプラッティングを統合してシミュレータを構築し,その後,液状ニューラルネットワークを用いてロバストなナビゲーションポリシーを訓練する。
このようにして、我々は3次元ガウススプラッティングラディアンス場レンダリング、専門家による実演訓練データのプログラミング、およびLiquid Networkのタスク理解能力の進歩を組み合わせたフルスタックの模倣学習プロトコルを得る。
論文 参考訳(メタデータ) (2024-06-21T13:48:37Z) - SAM-RL: Sensing-Aware Model-Based Reinforcement Learning via
Differentiable Physics-Based Simulation and Rendering [49.78647219715034]
本稿では,SAM-RL と呼ばれる感性認識モデルに基づく強化学習システムを提案する。
SAM-RLは、センサーを意識した学習パイプラインによって、ロボットがタスクプロセスを監視するための情報的視点を選択することを可能にする。
我々は,ロボット組立,ツール操作,変形可能なオブジェクト操作という3つの操作タスクを達成するための実世界の実験に,我々のフレームワークを適用した。
論文 参考訳(メタデータ) (2022-10-27T05:30:43Z) - Verifying Learning-Based Robotic Navigation Systems [61.01217374879221]
有効モデル選択に現代検証エンジンをどのように利用できるかを示す。
具体的には、検証を使用して、最適下行動を示す可能性のあるポリシーを検出し、除外する。
我々の研究は、現実世界のロボットにおける準最適DRLポリシーを認識するための検証バックエンドの使用を初めて実証したものである。
論文 参考訳(メタデータ) (2022-05-26T17:56:43Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - OSCAR: Data-Driven Operational Space Control for Adaptive and Robust
Robot Manipulation [50.59541802645156]
オペレーショナル・スペース・コントロール(OSC)は、操作のための効果的なタスクスペース・コントローラとして使われてきた。
本稿では,データ駆動型OSCのモデル誤差を補償するOSC for Adaptation and Robustness (OSCAR)を提案する。
本手法は,様々なシミュレーション操作問題に対して評価し,制御器のベースラインの配列よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-10-02T01:21:38Z) - Robust Reinforcement Learning-based Autonomous Driving Agent for
Simulation and Real World [0.0]
本稿では,Deep Q-Networks (DQN) を用いた自律型ロボット制御を実現するDRLベースのアルゴリズムを提案する。
本手法では,エージェントはシミュレーション環境で訓練され,シミュレーション環境と実環境環境の両方をナビゲートすることができる。
トレーニングされたエージェントは限られたハードウェアリソース上で動作することができ、そのパフォーマンスは最先端のアプローチに匹敵する。
論文 参考訳(メタデータ) (2020-09-23T15:23:54Z) - AirCapRL: Autonomous Aerial Human Motion Capture using Deep
Reinforcement Learning [38.429105809093116]
自律型空中人体モーションキャプチャ(MoCap)のための深部強化学習(RL)に基づくマルチロボット生成コントローラを提案する。
視覚に基づくMoCapに焦点をあて,体ポーズの軌跡を推定し,複数の空飛ぶ車を用いて1人の動く人物を形作る。
論文 参考訳(メタデータ) (2020-07-13T12:30:31Z) - RL-CycleGAN: Reinforcement Learning Aware Simulation-To-Real [74.45688231140689]
本稿では、画像翻訳におけるRL-scene整合性損失を導入し、画像に関連付けられたQ値に対して変換操作が不変であることを保証する。
RL-CycleGANは実世界のシミュレーションから実世界への変換による強化学習のための新しい手法である。
論文 参考訳(メタデータ) (2020-06-16T08:58:07Z) - Smooth Exploration for Robotic Reinforcement Learning [11.215352918313577]
強化学習(Reinforcement Learning, RL)は、ロボットが現実世界との対話からスキルを学ぶことを可能にする。
実際には、Deep RLで使用される非構造的なステップベースの探索は、実際のロボットにジャーキーな動きパターンをもたらす。
本稿では、状態依存探索(SDE)を現在のDeep RLアルゴリズムに適応させることにより、これらの問題に対処する。
論文 参考訳(メタデータ) (2020-05-12T12:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。