論文の概要: Embodied Adversarial Attack: A Dynamic Robust Physical Attack in
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2312.09554v2
- Date: Wed, 28 Feb 2024 12:31:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 18:13:15.118201
- Title: Embodied Adversarial Attack: A Dynamic Robust Physical Attack in
Autonomous Driving
- Title(参考訳): 身体的対向攻撃 : 自律運転における動的ロバスト物理攻撃
- Authors: Yitong Sun, Yao Huang, Xingxing Wei
- Abstract要約: Embodied Adversarial Attack (EAA) は、インボディード・インテリジェンス(英語版)のパラダイムである知覚-決定-制御(英語版)を採用することを目的としている。
EAAは、物理的攻撃を実施するために、レーザーを高度に操作可能な媒体として採用し、さらに強化学習で攻撃エージェントを訓練し、最良の攻撃戦略を瞬時に決定できるようにする。
複雑な環境下での手法の有効性を検証した実験は多種多様である。
- 参考スコア(独自算出の注目度): 15.427248934229233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As physical adversarial attacks become extensively applied in unearthing the
potential risk of security-critical scenarios, especially in autonomous
driving, their vulnerability to environmental changes has also been brought to
light. The non-robust nature of physical adversarial attack methods brings
less-than-stable performance consequently. To enhance the robustness of
physical adversarial attacks in the real world, instead of statically
optimizing a robust adversarial example via an off-line training manner like
the existing methods, this paper proposes a brand new robust adversarial attack
framework: Embodied Adversarial Attack (EAA) from the perspective of dynamic
adaptation, which aims to employ the paradigm of embodied intelligence:
Perception-Decision-Control to dynamically adjust the optimal attack strategy
according to the current situations in real time. For the perception module,
given the challenge of needing simulation for the victim's viewpoint, EAA
innovatively devises a Perspective Transformation Network to estimate the
target's transformation from the attacker's perspective. For the decision and
control module, EAA adopts the laser-a highly manipulable medium to implement
physical attacks, and further trains an attack agent with reinforcement
learning to make it capable of instantaneously determining the best attack
strategy based on the perceived information. Finally, we apply our framework to
the autonomous driving scenario. A variety of experiments verify the high
effectiveness of our method under complex scenes.
- Abstract(参考訳): セキュリティクリティカルなシナリオの潜在的なリスク、特に自動運転において、物理的な敵攻撃が広範囲に適用されるにつれ、環境変化に対する脆弱性も明らかになってきた。
物理的な敵攻撃の非ロバスト性は、安定した性能をもたらす。
To enhance the robustness of physical adversarial attacks in the real world, instead of statically optimizing a robust adversarial example via an off-line training manner like the existing methods, this paper proposes a brand new robust adversarial attack framework: Embodied Adversarial Attack (EAA) from the perspective of dynamic adaptation, which aims to employ the paradigm of embodied intelligence: Perception-Decision-Control to dynamically adjust the optimal attack strategy according to the current situations in real time.
認識モジュールは、被害者の視点でシミュレーションを必要とすることを考えると、攻撃者の視点から標的の変換を推定するパースペクティブ・トランスフォーメーション・ネットワークを革新的に考案する。
判定制御モジュールでは、レーザーを高操作可能な媒体として採用して物理的攻撃を実施、さらに強化学習で攻撃エージェントを訓練し、認識情報に基づいて最適な攻撃戦略を瞬時に決定できるようにする。
最後に、我々のフレームワークを自律運転シナリオに適用する。
複雑な環境下での手法の有効性を検証した実験は多種多様である。
関連論文リスト
- Adversarial Markov Games: On Adaptive Decision-Based Attacks and
Defenses [23.056260309055283]
攻撃だけでなく、防御も、相互作用を通じてお互いから学び合うことによって、どのような恩恵を受けるかを示します。
我々は、システムがどのように反応するかを制御するアクティブディフェンスが、意思決定ベースの攻撃に直面した際のモデルの強化に必須の補完であることを示した。
実世界で展開されるMLベースのシステムの堅牢性を確保するための効果的な戦略を策定する。
論文 参考訳(メタデータ) (2023-12-20T21:24:52Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - LAS-AT: Adversarial Training with Learnable Attack Strategy [82.88724890186094]
LAS-ATと呼ばれる「学習可能な攻撃戦略」は、モデル堅牢性を改善するための攻撃戦略を自動生成することを学ぶ。
当社のフレームワークは,強靭性向上のためのトレーニングにAEを使用するターゲットネットワークと,AE生成を制御するための攻撃戦略を生成する戦略ネットワークで構成されている。
論文 参考訳(メタデータ) (2022-03-13T10:21:26Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Targeted Attack on Deep RL-based Autonomous Driving with Learned Visual
Patterns [18.694795507945603]
近年の研究では、敵の攻撃に対する深い強化学習を通じて学んだコントロールポリシーの脆弱性が実証されている。
本研究では, 物理的対象物に配置した視覚的学習パターンを用いて, 標的攻撃の実現可能性について検討する。
論文 参考訳(メタデータ) (2021-09-16T04:59:06Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Dynamic Defense Approach for Adversarial Robustness in Deep Neural
Networks via Stochastic Ensemble Smoothed Model [12.858728363390703]
本稿ではランダムスムージングの防御法とモデルスムージングに基づくアンサンブルスムージングについて述べる。
ホワイトボックス攻撃下のアンサンブルモデルの極端な転送可能性と脆弱性を扱う。
論文 参考訳(メタデータ) (2021-05-06T16:48:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。