論文の概要: Evaluating the Robustness of Deep Reinforcement Learning for Autonomous
and Adversarial Policies in a Multi-agent Urban Driving Environment
- arxiv url: http://arxiv.org/abs/2112.11947v1
- Date: Wed, 22 Dec 2021 15:14:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 15:09:42.295582
- Title: Evaluating the Robustness of Deep Reinforcement Learning for Autonomous
and Adversarial Policies in a Multi-agent Urban Driving Environment
- Title(参考訳): 多エージェント都市運転環境における自律的・敵対的政策のための深層強化学習のロバスト性評価
- Authors: Aizaz Sharif, Dusica Marijan
- Abstract要約: ビジョンに基づく自動運転における深い強化学習の比較は、より良い自動車ポリシーをトレーニングする可能性を開くだろう。
まず、最先端の深層学習アルゴリズムを使って自動運転車を訓練する。
第二に、訓練された自律ポリシーの駆動能力を、単一エージェントとマルチエージェントシナリオでテストする。
- 参考スコア(独自算出の注目度): 5.254093731341154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning is actively used for training autonomous driving
agents in a vision-based urban simulated environment. Due to the large
availability of various reinforcement learning algorithms, we are still unsure
of which one works better while training autonomous cars in single-agent as
well as multi-agent driving environments. A comparison of deep reinforcement
learning in vision-based autonomous driving will open up the possibilities for
training better autonomous car policies. Also, autonomous cars trained on deep
reinforcement learning-based algorithms are known for being vulnerable to
adversarial attacks, and we have less information on which algorithms would act
as a good adversarial agent. In this work, we provide a systematic evaluation
and comparative analysis of 6 deep reinforcement learning algorithms for
autonomous and adversarial driving in four-way intersection scenario.
Specifically, we first train autonomous cars using state-of-the-art deep
reinforcement learning algorithms. Second, we test driving capabilities of the
trained autonomous policies in single-agent as well as multi-agent scenarios.
Lastly, we use the same deep reinforcement learning algorithms to train
adversarial driving agents, in order to test the driving performance of
autonomous cars and look for possible collision and offroad driving scenarios.
We perform experiments by using vision-only high fidelity urban driving
simulated environments.
- Abstract(参考訳): 深層強化学習は視覚に基づく都市シミュレーション環境での自律運転エージェントの訓練に積極的に用いられている。
強化学習アルゴリズムが多用されているため、自律走行車をシングルエージェントとマルチエージェント運転環境で訓練しながら、どちらがうまく機能するかは定かではない。
ビジョンに基づく自動運転における深い強化学習の比較は、より良い自動運転車ポリシーを訓練する可能性を開くだろう。
また、深い強化学習に基づくアルゴリズムで訓練された自動運転車は、敵の攻撃に弱いことで知られており、どのアルゴリズムが優れた敵エージェントとして機能するかに関する情報は少ない。
本研究では,4方向交差点シナリオにおける自律・対向運転のための6つの深部強化学習アルゴリズムの系統的評価と比較分析を行う。
具体的には、最先端の深層強化学習アルゴリズムを用いて、まず自動運転車を訓練する。
第二に、訓練された自律ポリシーの駆動能力を、単一エージェントとマルチエージェントシナリオでテストする。
最後に, 自動車の走行性能を検証し, 衝突やオフロード運転のシナリオを探るために, 同じ深層強化学習アルゴリズムを用いて, 敵の運転エージェントを訓練する。
視覚のみの高忠実度都市走行シミュレーション環境を用いて実験を行う。
関連論文リスト
- Multi-Agent Deep Reinforcement Learning for Cooperative and Competitive
Autonomous Vehicles using AutoDRIVE Ecosystem [1.1893676124374688]
我々は、ニジェールとF1TENTHの物理的に正確でグラフィカルなデジタル双対を開発するために、AutoDRIVE Ecosystemを導入する。
まず,複数エージェントの学習環境だけでなく,限られた状態情報を相互に共有する一組の協調車両(Nigel)を用いた交差点問題について検討する。
次に、異なる車両群(F1TENTH)を用いて、個別のポリシーアプローチを用いたマルチエージェント学習環境において、対向的なヘッドツーヘッド自律レース問題を調査する。
論文 参考訳(メタデータ) (2023-09-18T02:43:59Z) - ReMAV: Reward Modeling of Autonomous Vehicles for Finding Likely Failure
Events [1.84926694477846]
本稿では、まず、オフライン軌道を用いて、既存の自動運転車の挙動を分析するブラックボックステストフレームワークを提案する。
実験の結果,車両衝突,道路物体衝突,歩行者衝突,オフロードステアリング事故の発生率は35,23,48,50%増加した。
論文 参考訳(メタデータ) (2023-08-28T13:09:00Z) - Comprehensive Training and Evaluation on Deep Reinforcement Learning for
Automated Driving in Various Simulated Driving Maneuvers [0.4241054493737716]
本研究では、DQN(Deep Q-networks)とTRPO(Trust Region Policy Optimization)の2つのDRLアルゴリズムの実装、評価、比較を行う。
設計されたComplexRoads環境で訓練されたモデルは、他の運転操作にうまく適応でき、全体的な性能が期待できる。
論文 参考訳(メタデータ) (2023-06-20T11:41:01Z) - Using Collision Momentum in Deep Reinforcement Learning Based
Adversarial Pedestrian Modeling [0.0]
本稿では,衝突を対象とする強化学習アルゴリズムを提案する。
我々のアルゴリズムは効率的で、より厳しい衝突を発生し、複雑で多様なシナリオにおける自律運転アルゴリズムの弱点の同定と修正を可能にする。
論文 参考訳(メタデータ) (2023-06-13T03:38:05Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Real-world Ride-hailing Vehicle Repositioning using Deep Reinforcement
Learning [52.2663102239029]
アイドルヘイリングプラットフォーム上での現実世界の車両の深層強化学習と意思決定時間計画に基づく新しい実用的枠組みを提示する。
本手法は,重み付きバッチ学習アルゴリズムを用いて乗車時の状態値関数を学習する。
配車シミュレーション環境におけるベースラインでアルゴリズムをベンチマークし、収益効率の向上における優位性を実証します。
論文 参考訳(メタデータ) (2021-03-08T05:34:05Z) - Improving Robustness of Learning-based Autonomous Steering Using
Adversarial Images [58.287120077778205]
自動運転用画像入力における学習アルゴリズムw.r.tの堅牢性を解析するためのフレームワークについて紹介する。
感度分析の結果を用いて, 「操縦への学習」 タスクの総合的性能を向上させるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-26T02:08:07Z) - Behaviorally Diverse Traffic Simulation via Reinforcement Learning [16.99423598448411]
本稿では,自律運転エージェントのための簡易なポリシー生成アルゴリズムを提案する。
提案アルゴリズムは,深層強化学習の表現能力と探索能力を活用することで,多様性と運転能力のバランスをとる。
本手法の有効性を,いくつかの挑戦的な交差点シーンにおいて実験的に示す。
論文 参考訳(メタデータ) (2020-11-11T12:49:11Z) - SMARTS: Scalable Multi-Agent Reinforcement Learning Training School for
Autonomous Driving [96.50297622371457]
マルチエージェントインタラクションは、現実の世界における自律運転の基本的な側面である。
研究と開発が10年以上続いたにもかかわらず、様々なシナリオで多様な道路ユーザーと対話する方法の問題は未解決のままである。
SMARTSと呼ばれる,多種多様な運転インタラクションを生成する専用シミュレーションプラットフォームを開発した。
論文 参考訳(メタデータ) (2020-10-19T18:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。