論文の概要: Developing Driving Strategies Efficiently: A Skill-Based Hierarchical
Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2302.02179v2
- Date: Sun, 17 Sep 2023 17:48:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 00:49:54.913484
- Title: Developing Driving Strategies Efficiently: A Skill-Based Hierarchical
Reinforcement Learning Approach
- Title(参考訳): 効率的な運転戦略の開発 : スキルベース階層強化学習アプローチ
- Authors: Yigit Gurses, Kaan Buyukdemirci, and Yildiray Yildiz
- Abstract要約: 強化学習はドライバポリシをモデル化するための一般的なツールです。
動作プリミティブを高レベルなアクションとして設計し,使用する,スキルベースの"階層駆動戦略を提案する。
- 参考スコア(独自算出の注目度): 0.7373617024876725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driving in dense traffic with human and autonomous drivers is a challenging
task that requires high-level planning and reasoning. Human drivers can achieve
this task comfortably, and there has been many efforts to model human driver
strategies. These strategies can be used as inspirations for developing
autonomous driving algorithms or to create high-fidelity simulators.
Reinforcement learning is a common tool to model driver policies, but
conventional training of these models can be computationally expensive and
time-consuming. To address this issue, in this paper, we propose ``skill-based"
hierarchical driving strategies, where motion primitives, i.e. skills, are
designed and used as high-level actions. This reduces the training time for
applications that require multiple models with varying behavior. Simulation
results in a merging scenario demonstrate that the proposed approach yields
driver models that achieve higher performance with less training compared to
baseline reinforcement learning methods.
- Abstract(参考訳): 人間と自律運転者による密集した交通を運転することは、高いレベルの計画と推論を必要とする課題である。
人間ドライバーはこのタスクを快適に達成することができ、人間のドライバー戦略をモデル化するための多くの取り組みがあった。
これらの戦略は、自律運転アルゴリズムの開発や高忠実度シミュレータ作成のインスピレーションとして使用できる。
強化学習はドライバーポリシーをモデル化するための一般的なツールであるが、これらのモデルの従来のトレーニングは計算コストが高く、時間がかかる。
本稿では,この問題を解決するために,モーションプリミティブをハイレベルなアクションとして設計・使用するための,‘スキルベース’階層型駆動戦略を提案する。
これにより、振る舞いの異なる複数のモデルを必要とするアプリケーションのトレーニング時間を短縮する。
シミュレーションにより,提案手法は,ベースライン強化学習法と比較して,少ないトレーニングで高い性能を達成できるドライバモデルが得られることを示した。
関連論文リスト
- Efficient Motion Prediction: A Lightweight & Accurate Trajectory Prediction Model With Fast Training and Inference Speed [56.27022390372502]
我々は,1つのGPU上で数時間のトレーニングをしながら,競争力の高いベンチマーク結果を実現する,新しい効率的な動き予測モデルを提案する。
その低推論レイテンシは、特に限られたコンピューティングリソースを持つ自律アプリケーションへのデプロイに適している。
論文 参考訳(メタデータ) (2024-09-24T14:58:27Z) - Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - DQ-GAT: Towards Safe and Efficient Autonomous Driving with Deep
Q-Learning and Graph Attention Networks [12.714551756377265]
従来の計画手法は概ねルールベースであり、複雑な動的シナリオではスケールが不十分である。
スケーラブルでプロアクティブな自動運転を実現するためにDQ-GATを提案する。
我々の手法は、見知らぬシナリオと見えないシナリオの両方において、安全と効率のトレードオフを改善することができる。
論文 参考訳(メタデータ) (2021-08-11T04:55:23Z) - Learning to drive from a world on rails [78.28647825246472]
モデルベースアプローチによって,事前記録された運転ログからインタラクティブな視覚ベースの運転方針を学習する。
世界の前方モデルは、あらゆる潜在的な運転経路の結果を予測する運転政策を監督する。
提案手法は,carla リーダボードにまずランク付けし,40 倍少ないデータを用いて25%高い運転スコアを得た。
論文 参考訳(メタデータ) (2021-05-03T05:55:30Z) - Autonomous Overtaking in Gran Turismo Sport Using Curriculum
Reinforcement Learning [39.757652701917166]
本研究では,自律オーバーテイク問題に対する新たな学習手法を提案する。
カーレースシミュレーターであるGran Turismo Sportによるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-26T18:06:50Z) - Affordance-based Reinforcement Learning for Urban Driving [3.507764811554557]
経路点と低次元視覚表現を用いた最適制御ポリシーを学習するための深層強化学習フレームワークを提案する。
スクラッチから訓練されたエージェントは、車線追従のタスクを学習し、区間間を走り回り、密集した交通状況でも他のアクターや信号機の前で立ち止まることを実証する。
論文 参考訳(メタデータ) (2021-01-15T05:21:25Z) - Action-Based Representation Learning for Autonomous Driving [8.296684637620551]
本稿では,行動に基づく運転データを学習表現に用いることを提案する。
提案手法を用いて事前学習した空き時間に基づく運転モデルでは,比較的少量の弱注釈画像が有効であることを示す。
論文 参考訳(メタデータ) (2020-08-21T10:49:13Z) - Driver Modeling through Deep Reinforcement Learning and Behavioral Game
Theory [0.0]
自動運転車がドライバーと同一の安全レベルに達するためには、数百万マイルの走行テストが必要であると推定されている。
本稿では、複数の人的意思決定者からなる高忠実度交通シミュレータにおいて、安全かつ迅速な自動運転アルゴリズムの評価を可能にすることにより、テストに費やした時間と労力を削減するために利用することができる。
論文 参考訳(メタデータ) (2020-03-24T18:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。