論文の概要: Reinforced Embodied Active Defense: Exploiting Adaptive Interaction for Robust Visual Perception in Adversarial 3D Environments
- arxiv url: http://arxiv.org/abs/2507.18484v1
- Date: Thu, 24 Jul 2025 14:56:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.831722
- Title: Reinforced Embodied Active Defense: Exploiting Adaptive Interaction for Robust Visual Perception in Adversarial 3D Environments
- Title(参考訳): Reinforceed Embodied Active Defense: Exploiting Adaptive Interaction for Robust Visual Perception in Adversarial 3D Environments
- Authors: Xiao Yang, Lingxuan Wu, Lizhong Wang, Chengyang Ying, Hang Su, Jun Zhu,
- Abstract要約: 3次元環境における敵対的攻撃は、視覚知覚システムの信頼性に対する重要な脅威として現れてきた。
本稿では,環境への適応的探索と相互作用を活用する能動的防衛フレームワークであるReinforced Embodied Active Defense (Rein-EAD)を紹介する。
Rein-EADは、目に見えない、適応的な攻撃に対して堅牢な一般化を示し、現実世界の複雑なタスクに適している。
- 参考スコア(独自算出の注目度): 26.37868865624549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks in 3D environments have emerged as a critical threat to the reliability of visual perception systems, particularly in safety-sensitive applications such as identity verification and autonomous driving. These attacks employ adversarial patches and 3D objects to manipulate deep neural network (DNN) predictions by exploiting vulnerabilities within complex scenes. Existing defense mechanisms, such as adversarial training and purification, primarily employ passive strategies to enhance robustness. However, these approaches often rely on pre-defined assumptions about adversarial tactics, limiting their adaptability in dynamic 3D settings. To address these challenges, we introduce Reinforced Embodied Active Defense (Rein-EAD), a proactive defense framework that leverages adaptive exploration and interaction with the environment to improve perception robustness in 3D adversarial contexts. By implementing a multi-step objective that balances immediate prediction accuracy with predictive entropy minimization, Rein-EAD optimizes defense strategies over a multi-step horizon. Additionally, Rein-EAD involves an uncertainty-oriented reward-shaping mechanism that facilitates efficient policy updates, thereby reducing computational overhead and supporting real-world applicability without the need for differentiable environments. Comprehensive experiments validate the effectiveness of Rein-EAD, demonstrating a substantial reduction in attack success rates while preserving standard accuracy across diverse tasks. Notably, Rein-EAD exhibits robust generalization to unseen and adaptive attacks, making it suitable for real-world complex tasks, including 3D object classification, face recognition and autonomous driving.
- Abstract(参考訳): 3D環境における敵対的攻撃は、特にアイデンティティ検証や自律運転のような安全に敏感なアプリケーションにおいて、視覚知覚システムの信頼性に対する重要な脅威として現れている。
これらの攻撃は、複雑なシーン内の脆弱性を活用することによって、ディープニューラルネットワーク(DNN)予測を操作するために、逆パッチと3Dオブジェクトを使用する。
敵の訓練や浄化のような既存の防御機構は、強靭性を高めるために受動的戦略を主に採用している。
しかしながら、これらのアプローチは、しばしば敵の戦術に関する事前定義された仮定に依存し、ダイナミックな3D設定での適応性を制限する。
これらの課題に対処するために, 適応探索と環境との相互作用を活用し, 3次元対向環境における知覚堅牢性を向上させるプロアクティブ・ディフェンス・フレームワークであるReinforced Embodied Active Defense (Rein-EAD)を紹介した。
予測精度と予測エントロピー最小化のバランスをとる多段階目標を実装することにより、Rein-EADは多段階水平線上の防衛戦略を最適化する。
さらに、Rein-EADは、効率的なポリシー更新を容易にし、計算オーバーヘッドを減らし、異なる環境を必要とせずに実世界の適用性をサポートする不確実性指向の報酬形成機構を含んでいる。
総合的な実験により、Rein-EADの有効性が検証され、様々なタスクにまたがる標準精度を維持しながら、攻撃成功率を大幅に低下させる。
特にRein-EADは、目に見えない、適応的な攻撃に対して堅牢な一般化を示しており、3Dオブジェクトの分類、顔認識、自動運転など、現実世界の複雑なタスクに適している。
関連論文リスト
- 3D Gaussian Splatting Driven Multi-View Robust Physical Adversarial Camouflage Generation [50.03578546845548]
物理敵攻撃法は、ディープニューラルネットワークの脆弱性を露呈し、自律運転のような安全クリティカルなシナリオに重大な脅威をもたらす。
カモフラージュをベースとした物理的な攻撃は、パッチベースの攻撃よりも有望なアプローチであり、複雑な物理的環境においてより強力な対逆効果を提供する。
本稿では,PGAと命名された3Dガウススティング(3DGS)に基づく物理的攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-02T05:10:16Z) - Vulnerability Disclosure through Adaptive Black-Box Adversarial Attacks on NIDS [0.393259574660092]
本稿では,ブラックボックス攻撃に対する新たなアプローチを提案する。
システムアクセスを前提としたり、繰り返し探索に依存する従来の作業とは異なり、我々の手法はブラックボックスの制約を厳密に尊重する。
本稿では,変化点検出と因果解析を用いた適応的特徴選択手法を提案する。
論文 参考訳(メタデータ) (2025-06-25T16:10:20Z) - The Meeseeks Mesh: Spatially Consistent 3D Adversarial Objects for BEV Detector [37.74333887056029]
3Dオブジェクト検出は、自律運転システムにおいて重要な要素である。
本稿では,3次元物体検出モデルの3次元敵攻撃に対する脆弱性について検討する。
実世界の攻撃シナリオに適した非侵襲的な3次元対向オブジェクトを生成する。
論文 参考訳(メタデータ) (2025-05-28T15:49:54Z) - Embodied Active Defense: Leveraging Recurrent Feedback to Counter Adversarial Patches [37.317604316147985]
敵のパッチに対するディープニューラルネットワークの脆弱性は、モデルロバスト性を高めるための多くの防衛戦略を動機付けている。
本研究では,環境情報を積極的に文脈化して,現実の3次元環境における不整合に対処するEmbodied Active Defense (EAD) を開発した。
論文 参考訳(メタデータ) (2024-03-31T03:02:35Z) - Embodied Laser Attack:Leveraging Scene Priors to Achieve Agent-based Robust Non-contact Attacks [13.726534285661717]
本稿では,非接触レーザー攻撃を動的に調整する新しい枠組みであるEmbodied Laser Attack (ELA)を紹介する。
認識モジュールのために,ERAは交通シーンの本質的な事前知識に基づいて,局所的な視点変換ネットワークを革新的に開発してきた。
決定と制御モジュールのために、ERAは時間を要するアルゴリズムを採用する代わりに、データ駆動の強化学習で攻撃エージェントを訓練する。
論文 参考訳(メタデータ) (2023-12-15T06:16:17Z) - Attention-Based Real-Time Defenses for Physical Adversarial Attacks in
Vision Applications [58.06882713631082]
ディープニューラルネットワークはコンピュータビジョンタスクにおいて優れたパフォーマンスを示すが、現実の敵攻撃に対する脆弱性は深刻なセキュリティ上の懸念を引き起こす。
本稿では、敵チャネルの注意力を利用して、浅いネットワーク層における悪意のある物体を素早く識別・追跡する、効果的な注意に基づく防御機構を提案する。
また、効率的な多フレーム防御フレームワークを導入し、防御性能と計算コストの両方を評価することを目的とした広範な実験を通じて、その有効性を検証した。
論文 参考訳(メタデータ) (2023-11-19T00:47:17Z) - Towards Improving Robustness Against Common Corruptions in Object
Detectors Using Adversarial Contrastive Learning [10.27974860479791]
本稿では, ニューラルネットワークの強靭性向上と, 対人攻撃と共通汚職の同時防止を目的とした, 革新的な対人的コントラスト学習フレームワークを提案する。
対戦型および実世界の条件下での性能向上に焦点を合わせることで、安全クリティカルなアプリケーションにおけるニューラルネットワークの堅牢性を高めることを目的としている。
論文 参考訳(メタデータ) (2023-11-14T06:13:52Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。