論文の概要: Robust Driving Control for Autonomous Vehicles: An Intelligent General-sum Constrained Adversarial Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2510.09041v1
- Date: Fri, 10 Oct 2025 06:21:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.207463
- Title: Robust Driving Control for Autonomous Vehicles: An Intelligent General-sum Constrained Adversarial Reinforcement Learning Approach
- Title(参考訳): 自律走行車におけるロバスト運転制御--知能的な汎用制約付き対向強化学習アプローチ
- Authors: Junchao Fan, Xiaolin Chang,
- Abstract要約: 本稿では,戦略目標の敵とロバストな駆動エージェントからなる,新しいロバストな自律運転手法を提案する。
IGCARLは、最先端の手法よりも成功率を少なくとも27.9%向上させる。
- 参考スコア(独自算出の注目度): 3.360308805410428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning (DRL) has demonstrated remarkable success in developing autonomous driving policies. However, its vulnerability to adversarial attacks remains a critical barrier to real-world deployment. Although existing robust methods have achieved success, they still suffer from three key issues: (i) these methods are trained against myopic adversarial attacks, limiting their abilities to respond to more strategic threats, (ii) they have trouble causing truly safety-critical events (e.g., collisions), but instead often result in minor consequences, and (iii) these methods can introduce learning instability and policy drift during training due to the lack of robust constraints. To address these issues, we propose Intelligent General-sum Constrained Adversarial Reinforcement Learning (IGCARL), a novel robust autonomous driving approach that consists of a strategic targeted adversary and a robust driving agent. The strategic targeted adversary is designed to leverage the temporal decision-making capabilities of DRL to execute strategically coordinated multi-step attacks. In addition, it explicitly focuses on inducing safety-critical events by adopting a general-sum objective. The robust driving agent learns by interacting with the adversary to develop a robust autonomous driving policy against adversarial attacks. To ensure stable learning in adversarial environments and to mitigate policy drift caused by attacks, the agent is optimized under a constrained formulation. Extensive experiments show that IGCARL improves the success rate by at least 27.9\% over state-of-the-art methods, demonstrating superior robustness to adversarial attacks and enhancing the safety and reliability of DRL-based autonomous driving.
- Abstract(参考訳): 深部強化学習(DRL)は自律運転政策の開発において顕著な成功を収めた。
しかし、敵の攻撃に対するその脆弱性は、現実世界の展開にとって重要な障壁である。
既存の堅牢なメソッドは成功したが、それでも3つの大きな問題に悩まされている。
(i)これらの手法は、より戦略的脅威に対応する能力を制限して、筋敵攻撃に対して訓練される。
(二)真に安全に重要な事象(例えば衝突)を引き起こすのに苦労するが、その代わりに、しばしば小さな結果をもたらす。
三 これらの手法は、堅牢な制約の欠如により、訓練中に学習不安定性と政策ドリフトを導入することができる。
これらの課題に対処するため、我々は、戦略目標の敵と堅牢な駆動エージェントからなる、新しい堅牢な自律運転アプローチである、Intelligent General-sum Constrained Adversarial Reinforcement Learning (IGCARL)を提案する。
戦略目標敵は、DRLの時間的決定能力を活用して、戦略的に協調した多段階攻撃を実行するように設計されている。
また,一般目標の採用による安全クリティカル事象の誘発にも着目している。
頑健な運転エージェントは、敵と対話して、敵の攻撃に対して堅牢な自律運転ポリシーを開発することで学習する。
敵環境における安定した学習を確保するとともに、攻撃による政策ドリフトを軽減するため、制約された定式化の下でエージェントを最適化する。
大規模な実験により、IGCARLは最先端の手法よりも少なくとも27.9倍の成功率を向上し、敵の攻撃に対して優れた堅牢性を示し、DRLベースの自動運転の安全性と信頼性を高めることが示されている。
関連論文リスト
- Reinforcement Learning for Decision-Level Interception Prioritization in Drone Swarm Defense [51.736723807086385]
本稿では,この課題に対処する上で,強化学習の実践的メリットを示すケーススタディを提案する。
本研究では,現実的な運用制約を捉えた高忠実度シミュレーション環境を提案する。
エージェントは最適なインターセプション優先順位付けのために複数のエフェクターを調整することを学ぶ。
我々は、何百ものシミュレートされた攻撃シナリオにおいて、手作りルールベースのベースラインに対する学習ポリシーを評価する。
論文 参考訳(メタデータ) (2025-08-01T13:55:39Z) - Sharpening the Spear: Adaptive Expert-Guided Adversarial Attack Against DRL-based Autonomous Driving Policies [3.5120264792560993]
深部強化学習(DRL)は自動運転のための有望なパラダイムとして浮上している。
DRLベースの政策は、敵の攻撃に対して非常に脆弱であり、現実世界の展開において深刻な安全リスクを生じさせる。
本稿では,攻撃政策訓練の安定性と効率性を両立させる適応的専門家誘導型敵攻撃法を提案する。
論文 参考訳(メタデータ) (2025-06-23T05:42:49Z) - TeLL-Drive: Enhancing Autonomous Driving with Teacher LLM-Guided Deep Reinforcement Learning [61.33599727106222]
TeLL-Driveは、Teacher LLMを統合して、注意に基づく学生DRLポリシーをガイドするハイブリッドフレームワークである。
自己維持機構はDRLエージェントの探索とこれらの戦略を融合させ、政策収束を加速し、堅牢性を高める。
論文 参考訳(メタデータ) (2025-02-03T14:22:03Z) - Less is More: A Stealthy and Efficient Adversarial Attack Method for DRL-based Autonomous Driving Policies [2.9965913883475137]
DRLに基づく自律運転ポリシーに対するステルスで効率的な敵攻撃手法を提案する。
我々は、ドメイン知識のない重要な瞬間に攻撃するための最適なポリシーを学ぶために、敵を訓練する。
本手法は3回の攻撃で90%以上の衝突率を達成する。
論文 参考訳(メタデータ) (2024-12-04T06:11:09Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Robust Driving Policy Learning with Guided Meta Reinforcement Learning [49.860391298275616]
本稿では,ソーシャルカーの多種多様な運転方針を一つのメタ政治として訓練する効率的な方法を提案する。
ソーシャルカーのインタラクションに基づく報酬関数をランダム化することにより、多様な目的を生み出し、メタ政治を効率的に訓練することができる。
本研究では,社会自動車が学習メタ政治によって制御される環境を利用して,エゴ自動車の運転方針の堅牢性を高めるためのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-07-19T17:42:36Z) - Security of Deep Reinforcement Learning for Autonomous Driving: A Survey [20.703911484411737]
強化学習(RL)は、エージェントが環境との相互作用を通じて最適な行動を学ぶことを可能にする。
その約束にもかかわらず、RLは、政策学習を妥協したり、訓練されたエージェントによる誤った判断を誘発するために設計された攻撃に影響を受けやすい。
論文 参考訳(メタデータ) (2022-12-12T18:50:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。