論文の概要: AdvReal: Adversarial Patch Generation Framework with Application to Adversarial Safety Evaluation of Object Detection Systems
- arxiv url: http://arxiv.org/abs/2505.16402v1
- Date: Thu, 22 May 2025 08:54:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.164932
- Title: AdvReal: Adversarial Patch Generation Framework with Application to Adversarial Safety Evaluation of Object Detection Systems
- Title(参考訳): AdvReal: オブジェクト検出システムの対向的安全性評価に応用した対向的パッチ生成フレームワーク
- Authors: Yuanhao Huang, Yilong Ren, Jinlei Wang, Lujia Huo, Xuesong Bai, Jinchuan Zhang, Haiyan Yu,
- Abstract要約: 本研究では,2次元と3次元の両方のサンプルを対象とした統合型対向訓練フレームワークを提案する。
本研究では,非剛性表面モデリングと現実的な3次元マッチング機構を組み込んだ対向型サンプル現実性拡張手法を提案する。
- 参考スコア(独自算出の注目度): 3.1980492662961515
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Autonomous vehicles are typical complex intelligent systems with artificial intelligence at their core. However, perception methods based on deep learning are extremely vulnerable to adversarial samples, resulting in safety accidents. How to generate effective adversarial examples in the physical world and evaluate object detection systems is a huge challenge. In this study, we propose a unified joint adversarial training framework for both 2D and 3D samples to address the challenges of intra-class diversity and environmental variations in real-world scenarios. Building upon this framework, we introduce an adversarial sample reality enhancement approach that incorporates non-rigid surface modeling and a realistic 3D matching mechanism. We compare with 5 advanced adversarial patches and evaluate their attack performance on 8 object detecotrs, including single-stage, two-stage, and transformer-based models. Extensive experiment results in digital and physical environments demonstrate that the adversarial textures generated by our method can effectively mislead the target detection model. Moreover, proposed method demonstrates excellent robustness and transferability under multi-angle attacks, varying lighting conditions, and different distance in the physical world. The demo video and code can be obtained at https://github.com/Huangyh98/AdvReal.git.
- Abstract(参考訳): 自動運転車は、人工知能が中心となる典型的な複雑なインテリジェントシステムである。
しかし, 深層学習に基づく認識手法は, 敵のサンプルに対して極めて脆弱であり, 安全事故の原因となっている。
物理的世界における効果的な敵の例を生成し、オブジェクト検出システムを評価することは、大きな課題である。
本研究では,実世界のシナリオにおけるクラス内多様性と環境変動の課題に対処するために,2次元と3次元の両方のサンプルを対象とした統合型対人訓練フレームワークを提案する。
本研究では,非剛性表面モデルと現実的な3次元マッチング機構を組み込んだ逆サンプル現実性向上手法を提案する。
先進的な5つの敵パッチと比較し, 単段モデル, 2段モデル, 変圧器モデルを含む8個の物体デテコトルの攻撃性能を評価する。
デジタルおよび物理環境における大規模な実験結果から,本手法が生み出す逆方向のテクスチャが,ターゲット検出モデルを効果的に誤解させることを示した。
提案手法は,多角攻撃,照明条件の変化,物理界の異なる距離において,優れたロバスト性および伝達性を示す。
デモビデオとコードはhttps://github.com/Huangyh98/AdvReal.gitで入手できる。
関連論文リスト
- DRAPER: Towards a Robust Robot Deployment and Reliable Evaluation for Quasi-Static Pick-and-Place Cloth-Shaping Neural Controllers [2.720296126199296]
本研究では、フラット化タスクと折り畳みタスクにおいて、異なるシミュレーション訓練されたニューラルコントローラの信頼性の高い実世界比較を示す。
我々は、これらのニューラルコントローラの真の能力を確実に反映した、この包括的な研究を可能にするために、DRAPERフレームワークを導入する。
論文 参考訳(メタデータ) (2024-09-23T16:08:16Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - Exploring the Physical World Adversarial Robustness of Vehicle Detection [13.588120545886229]
アドリアックは現実世界の検知モデルの堅牢性を損なう可能性がある。
CARLAシミュレータを用いた革新的なインスタントレベルデータ生成パイプラインを提案する。
本研究は, 逆境条件下での多種多様なモデル性能について考察した。
論文 参考訳(メタデータ) (2023-08-07T11:09:12Z) - Unified Adversarial Patch for Visible-Infrared Cross-modal Attacks in
the Physical World [11.24237636482709]
我々は,単一パッチを同時に両モードで回避し,クロスモーダルな物理的攻撃を行える統一逆襲パッチを設計する。
本稿では, 対向パッチのコンパクトかつ滑らかな形状を実現することを目的とした, 境界制限型形状最適化手法を提案する。
提案手法はいくつかの最先端物体検出器に対して評価され,アタック成功率 (ASR) は80%以上である。
論文 参考訳(メタデータ) (2023-07-27T08:14:22Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - DPA: Learning Robust Physical Adversarial Camouflages for Object
Detectors [5.598600329573922]
そこで本研究では,Dense Proposals Attack (DPA) を提案し,検出器の頑健で物理的,ターゲットとした対向カモフラージュを学習する。
カモフラージュは、任意の視点と異なる照明条件下で撮影されたとき、敵対的であり続けるため、頑丈である。
We build a virtual 3D scene using the Unity Simulation engine to evaluate fair and reproducally different physical attack。
論文 参考訳(メタデータ) (2021-09-01T00:18:17Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。