論文の概要: AdvReal: Physical Adversarial Patch Generation Framework for Security Evaluation of Object Detection Systems
- arxiv url: http://arxiv.org/abs/2505.16402v2
- Date: Thu, 11 Sep 2025 02:07:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.049647
- Title: AdvReal: Physical Adversarial Patch Generation Framework for Security Evaluation of Object Detection Systems
- Title(参考訳): AdvReal:オブジェクト検出システムのセキュリティ評価のための物理逆パッチ生成フレームワーク
- Authors: Yuanhao Huang, Yilong Ren, Jinlei Wang, Lujia Huo, Xuesong Bai, Jinchuan Zhang, Haiyan Yu,
- Abstract要約: 本稿では,2次元領域と3次元領域の両方を対象とした統合的対角訓練フレームワークを提案する。
我々は,非剛性変形モデリングとテクスチャリマッピングを組み込んだリアリズム強化機構を開発する。
本手法は, YOLOv12における平均攻撃成功率 (ASR) を 70.13% の物理シナリオで達成する。
- 参考スコア(独自算出の注目度): 13.653653250544004
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Autonomous vehicles are typical complex intelligent systems with artificial intelligence at their core. However, perception methods based on deep learning are extremely vulnerable to adversarial samples, resulting in security accidents. How to generate effective adversarial examples in the physical world and evaluate object detection systems is a huge challenge. In this study, we propose a unified joint adversarial training framework for both 2D and 3D domains, which simultaneously optimizes texture maps in 2D image and 3D mesh spaces to better address intra-class diversity and real-world environmental variations. The framework includes a novel realistic enhanced adversarial module, with time-space and relighting mapping pipeline that adjusts illumination consistency between adversarial patches and target garments under varied viewpoints. Building upon this, we develop a realism enhancement mechanism that incorporates non-rigid deformation modeling and texture remapping to ensure alignment with the human body's non-rigid surfaces in 3D scenes. Extensive experiment results in digital and physical environments demonstrate that the adversarial textures generated by our method can effectively mislead the target detection model. Specifically, our method achieves an average attack success rate (ASR) of 70.13% on YOLOv12 in physical scenarios, significantly outperforming existing methods such as T-SEA (21.65%) and AdvTexture (19.70%). Moreover, the proposed method maintains stable ASR across multiple viewpoints and distances, with an average attack success rate exceeding 90% under both frontal and oblique views at a distance of 4 meters. This confirms the method's strong robustness and transferability under multi-angle attacks, varying lighting conditions, and real-world distances. The demo video and code can be obtained at https://github.com/Huangyh98/AdvReal.git.
- Abstract(参考訳): 自動運転車は、人工知能が中心となる典型的な複雑なインテリジェントシステムである。
しかし, 深層学習に基づく認識手法は, 敵のサンプルに対して極めて脆弱であり, セキュリティ上の事故が生じた。
物理的世界における効果的な敵の例を生成し、オブジェクト検出システムを評価することは、大きな課題である。
本研究では,2次元画像と3次元メッシュ空間のテクスチャマップを同時に最適化し,クラス内多様性と実世界の環境変動に対処する,2次元領域と3次元領域の同時対向学習フレームワークを提案する。
このフレームワークは、新しい現実的な拡張された対向モジュールを含み、異なる視点の下で、対向パッチと対象の衣服の間の照度一貫性を調整する時間空間と照度マッピングパイプラインを備えている。
そこで我々は,非剛性変形モデリングとテクスチャリマッピングを組み込んだリアリズム強化機構を開発し,人間の身体の非剛性表面との整合性を確保する。
デジタルおよび物理環境における大規模な実験結果から,本手法が生み出す逆方向のテクスチャが,ターゲット検出モデルを効果的に誤解させることを示した。
具体的には,TO-SEA (21.65%) やAdvTexture (19.70%) などの既存手法を著しく上回り, YOLOv12 の平均攻撃成功率 (ASR) を 70.13% の物理シナリオで達成する。
さらに,提案手法は,複数の視点と距離をまたいだ安定したASRを維持し,平均攻撃成功率は4m間隔で正面・斜視の両方で90%以上である。
これは、マルチアングル攻撃、様々な照明条件、実世界距離における手法の強靭性と伝達性を確認する。
デモビデオとコードはhttps://github.com/Huangyh98/AdvReal.gitで入手できる。
関連論文リスト
- Revisiting Physically Realizable Adversarial Object Attack against LiDAR-based Detection: Clarifying Problem Formulation and Experimental Protocols [11.792107959683925]
3次元物体検出における適応的ロバスト性は、現実世界のシナリオに広く応用されているため、重要な研究領域である。
本稿では,物理対物攻撃の鍵となる要素を抽象化する,デバイスに依存しない標準化されたフレームワークを提案する。
我々は,現実のLiDAR知覚において,攻撃の成功に影響を与える要因と,敵の堅牢性に対する高度な理解に関する洞察を提供する。
論文 参考訳(メタデータ) (2025-07-24T14:37:00Z) - 3D Gaussian Splatting Driven Multi-View Robust Physical Adversarial Camouflage Generation [50.03578546845548]
物理敵攻撃法は、ディープニューラルネットワークの脆弱性を露呈し、自律運転のような安全クリティカルなシナリオに重大な脅威をもたらす。
カモフラージュをベースとした物理的な攻撃は、パッチベースの攻撃よりも有望なアプローチであり、複雑な物理的環境においてより強力な対逆効果を提供する。
本稿では,PGAと命名された3Dガウススティング(3DGS)に基づく物理的攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-02T05:10:16Z) - DRAPER: Towards a Robust Robot Deployment and Reliable Evaluation for Quasi-Static Pick-and-Place Cloth-Shaping Neural Controllers [2.720296126199296]
本研究では、フラット化タスクと折り畳みタスクにおいて、異なるシミュレーション訓練されたニューラルコントローラの信頼性の高い実世界比較を示す。
我々は、これらのニューラルコントローラの真の能力を確実に反映した、この包括的な研究を可能にするために、DRAPERフレームワークを導入する。
論文 参考訳(メタデータ) (2024-09-23T16:08:16Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - Exploring the Physical World Adversarial Robustness of Vehicle Detection [13.588120545886229]
アドリアックは現実世界の検知モデルの堅牢性を損なう可能性がある。
CARLAシミュレータを用いた革新的なインスタントレベルデータ生成パイプラインを提案する。
本研究は, 逆境条件下での多種多様なモデル性能について考察した。
論文 参考訳(メタデータ) (2023-08-07T11:09:12Z) - Unified Adversarial Patch for Visible-Infrared Cross-modal Attacks in
the Physical World [11.24237636482709]
我々は,単一パッチを同時に両モードで回避し,クロスモーダルな物理的攻撃を行える統一逆襲パッチを設計する。
本稿では, 対向パッチのコンパクトかつ滑らかな形状を実現することを目的とした, 境界制限型形状最適化手法を提案する。
提案手法はいくつかの最先端物体検出器に対して評価され,アタック成功率 (ASR) は80%以上である。
論文 参考訳(メタデータ) (2023-07-27T08:14:22Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - DPA: Learning Robust Physical Adversarial Camouflages for Object
Detectors [5.598600329573922]
そこで本研究では,Dense Proposals Attack (DPA) を提案し,検出器の頑健で物理的,ターゲットとした対向カモフラージュを学習する。
カモフラージュは、任意の視点と異なる照明条件下で撮影されたとき、敵対的であり続けるため、頑丈である。
We build a virtual 3D scene using the Unity Simulation engine to evaluate fair and reproducally different physical attack。
論文 参考訳(メタデータ) (2021-09-01T00:18:17Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。