論文の概要: Embodied Active Defense: Leveraging Recurrent Feedback to Counter Adversarial Patches
- arxiv url: http://arxiv.org/abs/2404.00540v1
- Date: Sun, 31 Mar 2024 03:02:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 03:10:31.570236
- Title: Embodied Active Defense: Leveraging Recurrent Feedback to Counter Adversarial Patches
- Title(参考訳): 身体的アクティブディフェンス:反逆的パッチに対するリカレントフィードバックの活用
- Authors: Lingxuan Wu, Xiao Yang, Yinpeng Dong, Liuwei Xie, Hang Su, Jun Zhu,
- Abstract要約: 敵のパッチに対するディープニューラルネットワークの脆弱性は、モデルロバスト性を高めるための多くの防衛戦略を動機付けている。
本研究では,環境情報を積極的に文脈化して,現実の3次元環境における不整合に対処するEmbodied Active Defense (EAD) を開発した。
- 参考スコア(独自算出の注目度): 37.317604316147985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The vulnerability of deep neural networks to adversarial patches has motivated numerous defense strategies for boosting model robustness. However, the prevailing defenses depend on single observation or pre-established adversary information to counter adversarial patches, often failing to be confronted with unseen or adaptive adversarial attacks and easily exhibiting unsatisfying performance in dynamic 3D environments. Inspired by active human perception and recurrent feedback mechanisms, we develop Embodied Active Defense (EAD), a proactive defensive strategy that actively contextualizes environmental information to address misaligned adversarial patches in 3D real-world settings. To achieve this, EAD develops two central recurrent sub-modules, i.e., a perception module and a policy module, to implement two critical functions of active vision. These models recurrently process a series of beliefs and observations, facilitating progressive refinement of their comprehension of the target object and enabling the development of strategic actions to counter adversarial patches in 3D environments. To optimize learning efficiency, we incorporate a differentiable approximation of environmental dynamics and deploy patches that are agnostic to the adversary strategies. Extensive experiments demonstrate that EAD substantially enhances robustness against a variety of patches within just a few steps through its action policy in safety-critical tasks (e.g., face recognition and object detection), without compromising standard accuracy. Furthermore, due to the attack-agnostic characteristic, EAD facilitates excellent generalization to unseen attacks, diminishing the averaged attack success rate by 95 percent across a range of unseen adversarial attacks.
- Abstract(参考訳): 敵のパッチに対するディープニューラルネットワークの脆弱性は、モデルロバスト性を高めるための多くの防衛戦略を動機付けている。
しかし、優勢な防御は、敵のパッチに対抗するために単一の観察または事前確立された敵の情報に依存しており、しばしば目に見えない、あるいは適応的な敵の攻撃に直面しず、動的3D環境では容易に不満足なパフォーマンスを示す。
アクティブな人間の知覚と繰り返しのフィードバックのメカニズムに触発されて,環境情報を積極的にコンテキスト化して,現実の3次元環境における不整合に対処する,積極的な防御戦略であるEmbodied Active Defense(EAD)を開発した。
これを実現するために、ERDは2つの中心的リカレントサブモジュール、すなわち知覚モジュールとポリシーモジュールを開発し、アクティブビジョンの2つの重要な機能を実装する。
これらのモデルは、一連の信念と観察を反復的に処理し、対象物の理解を段階的に洗練させ、3D環境における敵のパッチに対抗するための戦略行動の開発を可能にする。
学習効率を最適化するために、環境力学の微分可能な近似を導入し、敵の戦略に依存しないパッチをデプロイする。
大規模な実験により、EDAは標準精度を損なうことなく、安全クリティカルなタスク(例えば、顔認識や物体検出)におけるアクションポリシーを通じて、いくつかのステップで様々なパッチに対する堅牢性を大幅に向上することが示された。
さらに、攻撃非依存的な特徴から、ERDは無敵攻撃に対する優れた一般化を促進し、無敵攻撃の範囲で平均的な攻撃成功率を95%低下させる。
関連論文リスト
- ADVREPAIR:Provable Repair of Adversarial Attack [15.580097790702508]
ディープニューラルネットワーク(DNN)は、ますます安全クリティカルなドメインにデプロイされているが、敵の攻撃に対する脆弱性は深刻な安全リスクを引き起こす。
制限されたデータを用いた既存のニューロンレベルの手法は、敵の攻撃機構の複雑さにより、敵の修正に有効性が欠如している。
本稿では,限られたデータを用いた敵攻撃の是正可能な修復手法であるADVREPAIRを提案する。
論文 参考訳(メタデータ) (2024-04-02T05:16:59Z) - Improving the Robustness of Object Detection and Classification AI models against Adversarial Patch Attacks [2.963101656293054]
我々は攻撃手法を解析し、堅牢な防御手法を提案する。
我々は,物体形状,テクスチャ,位置を利用する逆パッチ攻撃を用いて,モデル信頼度を20%以上下げることに成功した。
敵攻撃にも拘わらず,本手法はモデルレジリエンスを著しく向上させ,高精度かつ信頼性の高いローカライゼーションを実現している。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - Towards Robust Semantic Segmentation against Patch-based Attack via Attention Refinement [68.31147013783387]
我々は,アテンション機構がパッチベースの敵攻撃に弱いことを観察した。
本稿では,意味的セグメンテーションモデルの堅牢性を改善するために,ロバスト注意機構(RAM)を提案する。
論文 参考訳(メタデータ) (2024-01-03T13:58:35Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Embodied Adversarial Attack: A Dynamic Robust Physical Attack in
Autonomous Driving [15.427248934229233]
Embodied Adversarial Attack (EAA) は、インボディード・インテリジェンス(英語版)のパラダイムである知覚-決定-制御(英語版)を採用することを目的としている。
EAAは、物理的攻撃を実施するために、レーザーを高度に操作可能な媒体として採用し、さらに強化学習で攻撃エージェントを訓練し、最良の攻撃戦略を瞬時に決定できるようにする。
複雑な環境下での手法の有効性を検証した実験は多種多様である。
論文 参考訳(メタデータ) (2023-12-15T06:16:17Z) - Continual Adversarial Defense [38.77563936937233]
動的シナリオにおける攻撃に適応する最初の連続的敵防衛フレームワークを提案する。
CAD は,(1) 壊滅的忘れを伴わない新たな攻撃への連続的適応,(2) 少数ショット適応,(3) メモリ効率の適応,(4) クリーン画像と逆画像の両方において高い精度の 4 つの原理でモデル化されている。
論文 参考訳(メタデータ) (2023-12-15T01:38:26Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。