論文の概要: Developing Driving Strategies Efficiently: A Skill-Based Hierarchical
Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2302.02179v2
- Date: Sun, 17 Sep 2023 17:48:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 00:49:54.913484
- Title: Developing Driving Strategies Efficiently: A Skill-Based Hierarchical
Reinforcement Learning Approach
- Title(参考訳): 効率的な運転戦略の開発 : スキルベース階層強化学習アプローチ
- Authors: Yigit Gurses, Kaan Buyukdemirci, and Yildiray Yildiz
- Abstract要約: 強化学習はドライバポリシをモデル化するための一般的なツールです。
動作プリミティブを高レベルなアクションとして設計し,使用する,スキルベースの"階層駆動戦略を提案する。
- 参考スコア(独自算出の注目度): 0.7373617024876725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driving in dense traffic with human and autonomous drivers is a challenging
task that requires high-level planning and reasoning. Human drivers can achieve
this task comfortably, and there has been many efforts to model human driver
strategies. These strategies can be used as inspirations for developing
autonomous driving algorithms or to create high-fidelity simulators.
Reinforcement learning is a common tool to model driver policies, but
conventional training of these models can be computationally expensive and
time-consuming. To address this issue, in this paper, we propose ``skill-based"
hierarchical driving strategies, where motion primitives, i.e. skills, are
designed and used as high-level actions. This reduces the training time for
applications that require multiple models with varying behavior. Simulation
results in a merging scenario demonstrate that the proposed approach yields
driver models that achieve higher performance with less training compared to
baseline reinforcement learning methods.
- Abstract(参考訳): 人間と自律運転者による密集した交通を運転することは、高いレベルの計画と推論を必要とする課題である。
人間ドライバーはこのタスクを快適に達成することができ、人間のドライバー戦略をモデル化するための多くの取り組みがあった。
これらの戦略は、自律運転アルゴリズムの開発や高忠実度シミュレータ作成のインスピレーションとして使用できる。
強化学習はドライバーポリシーをモデル化するための一般的なツールであるが、これらのモデルの従来のトレーニングは計算コストが高く、時間がかかる。
本稿では,この問題を解決するために,モーションプリミティブをハイレベルなアクションとして設計・使用するための,‘スキルベース’階層型駆動戦略を提案する。
これにより、振る舞いの異なる複数のモデルを必要とするアプリケーションのトレーニング時間を短縮する。
シミュレーションにより,提案手法は,ベースライン強化学習法と比較して,少ないトレーニングで高い性能を達成できるドライバモデルが得られることを示した。
関連論文リスト
- Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Accelerated Policy Learning with Parallel Differentiable Simulation [59.665651562534755]
微分可能シミュレータと新しいポリシー学習アルゴリズム(SHAC)を提案する。
本アルゴリズムは,スムーズな批判機能により局所最小化の問題を軽減する。
現状のRLと微分可能なシミュレーションベースアルゴリズムと比較して,サンプル効率と壁面時間を大幅に改善した。
論文 参考訳(メタデータ) (2022-04-14T17:46:26Z) - Passive and Active Learning of Driver Behavior from Electric Vehicles [3.6704226968275258]
運転者の振る舞いをモデル化することは、電気自動車のエネルギー消費の予測など、自動車業界にいくつかの利点をもたらす。
機械学習手法はドライバーの行動分類に広く使われており、いくつかの課題をもたらす可能性がある。
これには、長期のウィンドウ上のシーケンスモデリングや、高価なアノテーションによるラベル付きデータの欠如が含まれる。
論文 参考訳(メタデータ) (2022-03-04T08:18:02Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - DQ-GAT: Towards Safe and Efficient Autonomous Driving with Deep
Q-Learning and Graph Attention Networks [12.714551756377265]
従来の計画手法は概ねルールベースであり、複雑な動的シナリオではスケールが不十分である。
スケーラブルでプロアクティブな自動運転を実現するためにDQ-GATを提案する。
我々の手法は、見知らぬシナリオと見えないシナリオの両方において、安全と効率のトレードオフを改善することができる。
論文 参考訳(メタデータ) (2021-08-11T04:55:23Z) - PEBBLE: Feedback-Efficient Interactive Reinforcement Learning via
Relabeling Experience and Unsupervised Pre-training [94.87393610927812]
我々は、フィードバックと非政治学習の両方の長所を生かした、非政治的、インタラクティブな強化学習アルゴリズムを提案する。
提案手法は,従来ヒト・イン・ザ・ループ法で検討されていたよりも複雑度の高いタスクを学習可能であることを実証する。
論文 参考訳(メタデータ) (2021-06-09T14:10:50Z) - Generative Adversarial Reward Learning for Generalized Behavior Tendency
Inference [71.11416263370823]
ユーザの行動嗜好モデルのための生成的逆強化学習を提案する。
我々のモデルは,差別的アクター批判ネットワークとWasserstein GANに基づいて,ユーザの行動から報酬を自動的に学習することができる。
論文 参考訳(メタデータ) (2021-05-03T13:14:25Z) - Learning to drive from a world on rails [78.28647825246472]
モデルベースアプローチによって,事前記録された運転ログからインタラクティブな視覚ベースの運転方針を学習する。
世界の前方モデルは、あらゆる潜在的な運転経路の結果を予測する運転政策を監督する。
提案手法は,carla リーダボードにまずランク付けし,40 倍少ないデータを用いて25%高い運転スコアを得た。
論文 参考訳(メタデータ) (2021-05-03T05:55:30Z) - Reinforcement Learning with Iterative Reasoning for Merging in Dense
Traffic [41.46201285202203]
密集した交通量を減らすことは、自動運転車にとって難しい課題だ。
本稿では,強化学習とゲーム理論を組み合わせて,融合行動の学習を行う。
論文 参考訳(メタデータ) (2020-05-25T02:57:19Z) - Learning hierarchical behavior and motion planning for autonomous
driving [32.78069835190924]
本稿では,階層的行動計画(HBMP)を導入し,学習ベースソリューションの動作を明示的にモデル化する。
我々は、古典的なサンプリングベースのモーションプランナを統合することで、HBMP問題を変換する。
さらに,シミュレーションプラットフォームと実環境をまたいだ入力感覚データの共有可能な表現を提案する。
論文 参考訳(メタデータ) (2020-05-08T05:34:55Z) - A Probabilistic Framework for Imitating Human Race Driver Behavior [31.524303667746643]
本稿では,運転行動モデリングのタスクを複数のモジュールに分割するモジュラーフレームワークProMoDを提案する。
確率的運動プリミティブを用いて大域的目標軌道分布を学習し、局所経路生成にウエイドを使用し、ニューラルネットワークにより対応する行動選択を行う。
シミュレーションカーレースセッティングの実験は、他の模倣学習アルゴリズムと比較して、模倣精度とロバスト性にかなりの利点がある。
論文 参考訳(メタデータ) (2020-01-22T20:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。