論文の概要: Less is More: A Stealthy and Efficient Adversarial Attack Method for DRL-based Autonomous Driving Policies
- arxiv url: http://arxiv.org/abs/2412.03051v1
- Date: Wed, 04 Dec 2024 06:11:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:09:35.640007
- Title: Less is More: A Stealthy and Efficient Adversarial Attack Method for DRL-based Autonomous Driving Policies
- Title(参考訳): DRLをベースとした自律走行政策のためのステルスで効率的な敵攻撃法
- Authors: Junchao Fan, Xuyang Lei, Xiaolin Chang, Jelena Mišić, Vojislav B. Mišić,
- Abstract要約: DRLに基づく自律運転ポリシーに対するステルスで効率的な敵攻撃手法を提案する。
我々は、ドメイン知識のない重要な瞬間に攻撃するための最適なポリシーを学ぶために、敵を訓練する。
本手法は3回の攻撃で90%以上の衝突率を達成する。
- 参考スコア(独自算出の注目度): 2.9965913883475137
- License:
- Abstract: Despite significant advancements in deep reinforcement learning (DRL)-based autonomous driving policies, these policies still exhibit vulnerability to adversarial attacks. This vulnerability poses a formidable challenge to the practical deployment of these policies in autonomous driving. Designing effective adversarial attacks is an indispensable prerequisite for enhancing the robustness of these policies. In view of this, we present a novel stealthy and efficient adversarial attack method for DRL-based autonomous driving policies. Specifically, we introduce a DRL-based adversary designed to trigger safety violations (e.g., collisions) by injecting adversarial samples at critical moments. We model the attack as a mixed-integer optimization problem and formulate it as a Markov decision process. Then, we train the adversary to learn the optimal policy for attacking at critical moments without domain knowledge. Furthermore, we introduce attack-related information and a trajectory clipping method to enhance the learning capability of the adversary. Finally, we validate our method in an unprotected left-turn scenario across different traffic densities. The experimental results show that our method achieves more than 90% collision rate within three attacks in most cases. Furthermore, our method achieves more than 130% improvement in attack efficiency compared to the unlimited attack method.
- Abstract(参考訳): 深層強化学習(DRL)に基づく自律運転政策の大幅な進歩にもかかわらず、これらの政策は依然として敵の攻撃に対する脆弱性を示している。
この脆弱性は、自動運転車にこれらのポリシーを実践的に展開する上で、重大な課題となる。
効果的な敵攻撃を設計することは、これらの政策の堅牢性を高めるために必要な前提条件である。
そこで本研究では,DRLをベースとした自律運転ポリシーのステルス性と効率的な敵攻撃手法を提案する。
具体的には,危険時に相手試料を注入することにより,安全違反(例えば衝突)を引き起こすよう設計されたDRLベースの敵を紹介した。
我々は,攻撃を混合整数最適化問題としてモデル化し,マルコフ決定過程として定式化する。
そして、ドメイン知識のない重要な瞬間に攻撃するための最適なポリシーを学ぶために、敵を訓練する。
さらに,敵の学習能力を高めるために,攻撃関連情報とトラジェクティブクリッピング手法を導入する。
最後に,交通密度の異なる左折シナリオにおいて,本手法の有効性を検証した。
実験の結果,3回の攻撃で90%以上の衝突率が得られることがわかった。
さらに,攻撃効率は無制限攻撃法に比べて130%以上向上した。
関連論文リスト
- Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Imitation Is Not Enough: Robustifying Imitation with Reinforcement
Learning for Challenging Driving Scenarios [147.16925581385576]
シミュレーション学習と強化学習を組み合わせることで,運転方針の安全性と信頼性が大幅に向上することを示す。
都会の運転データ100万マイル以上でポリシーを訓練し、異なるレベルの衝突確率でグループ化されたテストシナリオにおける有効性を測定する。
論文 参考訳(メタデータ) (2022-12-21T23:59:33Z) - Attacking and Defending Deep Reinforcement Learning Policies [3.6985039575807246]
本研究では, DRL ポリシーのロバストな最適化の観点から, 敵攻撃に対するロバスト性について検討する。
本稿では,環境との相互作用を伴わずにポリシーの戻りを最小化しようとする欲求攻撃アルゴリズムと,最大限の形式で敵の訓練を行う防衛アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-16T12:47:54Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Real-time Attacks Against Deep Reinforcement Learning Policies [14.085247099075628]
本稿では,DRL ポリシーを騙す新たな攻撃法を提案する。
我々は,UAP法を用いて,適用対象の個々の入力に依存しない効果的な摂動を計算する。
論文 参考訳(メタデータ) (2021-06-16T12:44:59Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - Dirty Road Can Attack: Security of Deep Learning based Automated Lane
Centering under Physical-World Attack [38.3805893581568]
本研究では,物理世界の敵対的攻撃下での最先端のディープラーニングに基づくALCシステムの安全性について検討する。
安全クリティカルな攻撃目標と、新しいドメイン固有の攻撃ベクトル、汚い道路パッチで問題を定式化する。
実世界の走行トレースから80のシナリオを用いて実運用ALCに対する攻撃を評価した。
論文 参考訳(メタデータ) (2020-09-14T19:22:39Z) - Adversarial jamming attacks and defense strategies via adaptive deep
reinforcement learning [12.11027948206573]
本稿では、DRLベースの動的チャネルアクセスを行う被害者ユーザと、DRLベースの妨害攻撃を実行して被害者を妨害する攻撃者について考察する。
被害者も攻撃者もDRLエージェントであり、互いに相互作用し、モデルを再訓練し、相手の方針に適応することができる。
攻撃された被害者の精度を最大化し,その性能を評価するための3つの防衛戦略を提案する。
論文 参考訳(メタデータ) (2020-07-12T18:16:00Z) - Stealthy and Efficient Adversarial Attacks against Deep Reinforcement
Learning [30.46580767540506]
本稿では,Deep Reinforcement Learning Agentを効果的かつ効果的に攻撃するための2つの新しい敵攻撃手法を紹介する。
敵は将来の環境状態とエージェントの行動を予測するモデルを構築し、それぞれの攻撃戦略の損傷を評価し、最適な攻撃方法を選択する。
敵は自動的にドメインに依存しないモデルを学び、エピソード中のエージェントを攻撃する重要な瞬間を発見する。
論文 参考訳(メタデータ) (2020-05-14T16:06:38Z) - Challenges and Countermeasures for Adversarial Attacks on Deep
Reinforcement Learning [48.49658986576776]
深層強化学習(Dep Reinforcement Learning, DRL)は、周囲の環境に適応する優れた能力のおかげで、現実世界に多くの応用がある。
その大きな利点にもかかわらず、DRLは現実のクリティカルシステムやアプリケーションでの使用を妨げている敵攻撃の影響を受けやすい。
本稿では,DRLベースのシステムにおける新たな攻撃と,これらの攻撃を防御するための潜在的対策について述べる。
論文 参考訳(メタデータ) (2020-01-27T10:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。