論文の概要: Safe Trajectory Planning Using Reinforcement Learning for Self Driving
- arxiv url: http://arxiv.org/abs/2011.04702v1
- Date: Mon, 9 Nov 2020 19:29:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 01:53:05.089862
- Title: Safe Trajectory Planning Using Reinforcement Learning for Self Driving
- Title(参考訳): 自己運転のための強化学習を用いた安全軌道計画
- Authors: Josiah Coad, Zhiqian Qiao, John M. Dolan
- Abstract要約: 自動運転車の軌道計画段階におけるモデルフリー強化学習を提案する。
このアプローチにより、自動運転のタスクに必要な安全で汎用的で快適な方法で車を操作することができることを示す。
- 参考スコア(独自算出の注目度): 21.500697097095408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-driving vehicles must be able to act intelligently in diverse and
difficult environments, marked by high-dimensional state spaces, a myriad of
optimization objectives and complex behaviors. Traditionally, classical
optimization and search techniques have been applied to the problem of
self-driving; but they do not fully address operations in environments with
high-dimensional states and complex behaviors. Recently, imitation learning has
been proposed for the task of self-driving; but it is labor-intensive to obtain
enough training data. Reinforcement learning has been proposed as a way to
directly control the car, but this has safety and comfort concerns. We propose
using model-free reinforcement learning for the trajectory planning stage of
self-driving and show that this approach allows us to operate the car in a more
safe, general and comfortable manner, required for the task of self driving.
- Abstract(参考訳): 自動運転車は、多様で難しい環境でインテリジェントに行動できなければならず、高次元の状態空間、無数の最適化目標、複雑な行動が特徴である。
伝統的に、古典的な最適化と探索技術は自動運転の問題に応用されてきたが、高次元状態や複雑な振る舞いを持つ環境での操作を完全には扱っていない。
近年,自動運転の課題として模倣学習が提案されているが,十分なトレーニングデータを得るためには労力を要する。
強化学習は車を直接制御する方法として提案されているが、これは安全性と快適性に懸念がある。
自動運転車の軌道計画段階におけるモデルフリー強化学習を提案し,本手法により,自動運転作業に必要な安全で汎用的で快適な運転が可能となることを示す。
関連論文リスト
- RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Towards Optimal Head-to-head Autonomous Racing with Curriculum
Reinforcement Learning [22.69532642800264]
車両力学を正確にモデル化した強化学習のためのヘッド・ツー・ヘッドレース環境を提案する。
また,エージェントの安全性を高めるために,制御バリア関数に基づく安全強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-25T17:05:41Z) - Evaluation of Safety Constraints in Autonomous Navigation with Deep
Reinforcement Learning [62.997667081978825]
学習可能なナビゲーションポリシとして,セーフとアンセーフの2つを比較します。
安全なポリシは、制約をアカウントに含めますが、もう一方はそうではありません。
安全政策は、よりクリアランスの高い軌道を生成することができ(障害物によらず)、全体的な性能を犠牲にすることなく、トレーニング中に衝突を減らすことができることを示す。
論文 参考訳(メタデータ) (2023-07-27T01:04:57Z) - Robust Driving Policy Learning with Guided Meta Reinforcement Learning [49.860391298275616]
本稿では,ソーシャルカーの多種多様な運転方針を一つのメタ政治として訓練する効率的な方法を提案する。
ソーシャルカーのインタラクションに基づく報酬関数をランダム化することにより、多様な目的を生み出し、メタ政治を効率的に訓練することができる。
本研究では,社会自動車が学習メタ政治によって制御される環境を利用して,エゴ自動車の運転方針の堅牢性を高めるためのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-07-19T17:42:36Z) - Comprehensive Training and Evaluation on Deep Reinforcement Learning for
Automated Driving in Various Simulated Driving Maneuvers [0.4241054493737716]
本研究では、DQN(Deep Q-networks)とTRPO(Trust Region Policy Optimization)の2つのDRLアルゴリズムの実装、評価、比較を行う。
設計されたComplexRoads環境で訓練されたモデルは、他の運転操作にうまく適応でき、全体的な性能が期待できる。
論文 参考訳(メタデータ) (2023-06-20T11:41:01Z) - Imitation Is Not Enough: Robustifying Imitation with Reinforcement
Learning for Challenging Driving Scenarios [147.16925581385576]
シミュレーション学習と強化学習を組み合わせることで,運転方針の安全性と信頼性が大幅に向上することを示す。
都会の運転データ100万マイル以上でポリシーを訓練し、異なるレベルの衝突確率でグループ化されたテストシナリオにおける有効性を測定する。
論文 参考訳(メタデータ) (2022-12-21T23:59:33Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Parallelized and Randomized Adversarial Imitation Learning for
Safety-Critical Self-Driving Vehicles [11.463476667274051]
運転システムを安全に制御するために、信頼性の高いADAS機能調整を検討することが不可欠である。
本稿では,RAILアルゴリズムを提案する。
提案手法は, LIDARデータを扱う意思決定者を訓練し, 多車線複合高速道路環境における自律走行を制御できる。
論文 参考訳(メタデータ) (2021-12-26T23:42:49Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。