論文の概要: OTTR: Off-Road Trajectory Tracking using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2110.02332v1
- Date: Tue, 5 Oct 2021 20:04:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:14:15.379402
- Title: OTTR: Off-Road Trajectory Tracking using Reinforcement Learning
- Title(参考訳): OTTR:強化学習を用いたオフロード軌道追跡
- Authors: Akhil Nagariya, Dileep Kalathil, Srikanth Saripalli
- Abstract要約: オフロード軌道追跡問題に対する新しい強化学習(RL)アルゴリズムを提案する。
提案手法は,ベースラインRLポリシーに適応するために利用可能な限られた実世界のデータを効率的に活用する。
標準のILQR手法と比較して,提案手法はWarthogとMooseのクロストラック誤差を30%,50%削減する。
- 参考スコア(独自算出の注目度): 6.033086397437647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present a novel Reinforcement Learning (RL) algorithm for
the off-road trajectory tracking problem. Off-road environments involve varying
terrain types and elevations, and it is difficult to model the interaction
dynamics of specific off-road vehicles with such a diverse and complex
environment. Standard RL policies trained on a simulator will fail to operate
in such challenging real-world settings. Instead of using a naive domain
randomization approach, we propose an innovative supervised-learning based
approach for overcoming the sim-to-real gap problem. Our approach efficiently
exploits the limited real-world data available to adapt the baseline RL policy
obtained using a simple kinematics simulator. This avoids the need for modeling
the diverse and complex interaction of the vehicle with off-road environments.
We evaluate the performance of the proposed algorithm using two different
off-road vehicles, Warthog and Moose. Compared to the standard ILQR approach,
our proposed approach achieves a 30% and 50% reduction in cross track error in
Warthog and Moose, respectively, by utilizing only 30 minutes of real-world
driving data.
- Abstract(参考訳): 本研究では,オフロード軌道追跡問題に対する新しい強化学習(RL)アルゴリズムを提案する。
オフロード環境には様々な地形タイプや標高があり、そのような多様な複雑な環境で特定のオフロード車両の相互作用のダイナミクスをモデル化することは困難である。
シミュレーターで訓練された標準のRLポリシーは、このような困難な現実世界の設定では動作しない。
単調なドメインランダム化アプローチを使う代わりに、sim-to-realギャップ問題を克服するための革新的な教師あり学習方式を提案する。
提案手法は,簡単なキネマティクスシミュレータを用いて得られたベースラインRLポリシーに適応するために利用可能な限られた実世界のデータを利用する。
これにより、車両とオフロード環境の多様な複雑な相互作用をモデル化する必要がなくなる。
提案アルゴリズムの性能をWarthogとMooseの2種類のオフロード車両を用いて評価した。
標準のilqrアプローチと比較すると,提案手法は実世界の運転データのみを利用して,warthogとmooseのクロストラック誤差を30%,50%削減する。
関連論文リスト
- WROOM: An Autonomous Driving Approach for Off-Road Navigation [17.74237088460657]
オフロード環境における自動運転車のためのエンドツーエンド強化学習システム(RL)を設計する。
ルールベースのコントローラを模倣してエージェントを温め、PPO(Proximal Policy Optimization)を利用してポリシーを改善する。
オフロード走行シナリオを再現する新しいシミュレーション環境を提案し,本提案手法を実車に展開する。
論文 参考訳(メタデータ) (2024-04-12T23:55:59Z) - Data-efficient Deep Reinforcement Learning for Vehicle Trajectory
Control [6.144517901919656]
強化学習(RL)は、古典的なアプローチよりも優れた制御性能を達成することを約束する。
SAC(Soft-actor critic)のような標準RLアプローチでは、大量のトレーニングデータを収集する必要がある。
近年開発されたディープRL法を車両軌道制御に適用した。
論文 参考訳(メタデータ) (2023-11-30T09:38:59Z) - Eco-Driving Control of Connected and Automated Vehicles using Neural
Network based Rollout [0.0]
接続された自動運転車は、エネルギー消費を最小化する可能性がある。
既存の決定論的手法は、一般に高い計算とメモリ要求に悩まされる。
本研究ではニューラルネットワークを介して実装された階層型マルチ水平最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-16T23:13:51Z) - Integrating Higher-Order Dynamics and Roadway-Compliance into
Constrained ILQR-based Trajectory Planning for Autonomous Vehicles [3.200238632208686]
軌道計画は、自動運転車のグローバルな最適ルートを作成することを目的としている。
既存の自転車キネマティックモデルを用いた実装では、制御可能な軌道は保証できない。
このモデルを、曲率と長手ジャークの1階および2階微分を含む高階項で拡張する。
論文 参考訳(メタデータ) (2023-09-25T22:30:18Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - NeurIPS 2022 Competition: Driving SMARTS [60.948652154552136]
ドライビングSMARTSは、動的相互作用コンテキストにおける分散シフトに起因する問題に対処するために設計された定期的な競争である。
提案するコンペティションは,強化学習(RL)やオフライン学習など,方法論的に多様なソリューションをサポートする。
論文 参考訳(メタデータ) (2022-11-14T17:10:53Z) - Hybrid Reinforcement Learning-Based Eco-Driving Strategy for Connected
and Automated Vehicles at Signalized Intersections [3.401874022426856]
視覚知覚法は車間通信(V2I)と統合され、より高モビリティとエネルギー効率を実現する。
HRLフレームワークには3つのコンポーネントがある。ルールベースのドライビングマネージャで、ルールベースのポリシーとRLポリシーの協調を運用する。
実験により, HRL法によりエネルギー消費量を12.70%削減し, 11.75%の移動時間を省くことができた。
論文 参考訳(メタデータ) (2022-01-19T19:31:12Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - Real-world Ride-hailing Vehicle Repositioning using Deep Reinforcement
Learning [52.2663102239029]
アイドルヘイリングプラットフォーム上での現実世界の車両の深層強化学習と意思決定時間計画に基づく新しい実用的枠組みを提示する。
本手法は,重み付きバッチ学習アルゴリズムを用いて乗車時の状態値関数を学習する。
配車シミュレーション環境におけるベースラインでアルゴリズムをベンチマークし、収益効率の向上における優位性を実証します。
論文 参考訳(メタデータ) (2021-03-08T05:34:05Z) - Learning from Simulation, Racing in Reality [126.56346065780895]
ミニチュアレースカープラットフォーム上で自律的なレースを行うための強化学習ベースのソリューションを提案する。
シミュレーションで純粋に訓練されたポリシーは、実際のロボットのセットアップにうまく移行できることを示す。
論文 参考訳(メタデータ) (2020-11-26T14:58:49Z) - Path Planning Followed by Kinodynamic Smoothing for Multirotor Aerial
Vehicles (MAVs) [61.94975011711275]
そこで本稿では,RRT*textquotedblrightのテキストを幾何学的にベースとした動き計画手法を提案する。
提案手法では,適応探索空間とステアリング機能を導入したオリジナルのRT*を改良した。
提案手法を様々なシミュレーション環境で検証した。
論文 参考訳(メタデータ) (2020-08-29T09:55:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。