論文の概要: NaturalAE: Natural and Robust Physical Adversarial Examples for Object
Detectors
- arxiv url: http://arxiv.org/abs/2011.13692v2
- Date: Wed, 17 Mar 2021 08:47:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 02:23:26.101920
- Title: NaturalAE: Natural and Robust Physical Adversarial Examples for Object
Detectors
- Title(参考訳): NaturalAE:オブジェクト検出器の自然的およびロバストな物理逆転例
- Authors: Mingfu Xue, Chengxiang Yuan, Can He, Jian Wang, Weiqiang Liu
- Abstract要約: 本研究では,実環境下での物体検出を対象とする,自然かつ堅牢な物理対角攻撃法を提案する。
生成した逆の例は、様々な物理的制約に対して堅牢であり、元の画像と視覚的に類似している。
提案手法は, 生成した逆数例の自然さを保証し, 追加の摂動の大きさは既存作品の摂動よりもはるかに小さい。
- 参考スコア(独自算出の注目度): 6.4039013462213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a natural and robust physical adversarial example
attack method targeting object detectors under real-world conditions. The
generated adversarial examples are robust to various physical constraints and
visually look similar to the original images, thus these adversarial examples
are natural to humans and will not cause any suspicions. First, to ensure the
robustness of the adversarial examples in real-world conditions, the proposed
method exploits different image transformation functions, to simulate various
physical changes during the iterative optimization of the adversarial examples
generation. Second, to construct natural adversarial examples, the proposed
method uses an adaptive mask to constrain the area and intensities of the added
perturbations, and utilizes the real-world perturbation score (RPS) to make the
perturbations be similar to those real noises in physical world. Compared with
existing studies, our generated adversarial examples can achieve a high success
rate with less conspicuous perturbations. Experimental results demonstrate
that, the generated adversarial examples are robust under various indoor and
outdoor physical conditions, including different distances, angles,
illuminations, and photographing. Specifically, the attack success rate of
generated adversarial examples indoors and outdoors is high up to 73.33% and
82.22%, respectively. Meanwhile, the proposed method ensures the naturalness of
the generated adversarial example, and the size of added perturbations is much
smaller than the perturbations in the existing works. Further, the proposed
physical adversarial attack method can be transferred from the white-box models
to other object detection models.
- Abstract(参考訳): 本論文では,実環境下での物体検出を対象とする自然かつ堅牢な物理対角攻撃法を提案する。
生成した敵の例は、様々な物理的制約に対して堅牢であり、元の画像と視覚的に類似しているため、これらの敵の例は人間にとって自然なものであり、疑念を起こさない。
提案手法は,実環境における逆例のロバスト性を確保するため,異なる画像変換関数を用いて,逆例生成の反復最適化中に様々な物理的変化をシミュレートする。
第二に,本手法では,適応マスクを用いて付加摂動の面積と強度を制限し,実世界の摂動スコア(rps)を用いて実世界の摂動を実環境における実際の騒音と類似させる。
既存の研究と比較すると、我々の生成した敵の例は、目立った摂動の少ない高い成功率を達成することができる。
実験の結果, 異なる距離, 角度, 照度, 撮影など, 様々な室内および屋外の物理的条件下では, 生成した敵の例は頑健であることが判明した。
具体的には、発生した敵の屋内および屋外の攻撃成功率は、それぞれ73.33%と82.22%である。
一方, 提案手法は, 生成した逆数例の自然さを保証し, 追加の摂動の大きさは既存作品の摂動よりもはるかに小さい。
さらに、提案する物理敵攻撃手法をホワイトボックスモデルから他のオブジェクト検出モデルに転送することができる。
関連論文リスト
- Imperceptible Adversarial Examples in the Physical World [10.981325924844167]
我々は、ストレートスルー推定器(STE、別名BPDA)を用いて、物理世界における敵対例を知覚できないものにする。
我々のSTEのレンダリング拡張は、物理的世界における知覚できない敵パッチも可能にします。
我々の知る限りでは、これは物理的世界の小さな規範に縛られた、知覚できない敵の例を示す最初の作品である。
論文 参考訳(メタデータ) (2024-11-25T18:02:23Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Extreme Miscalibration and the Illusion of Adversarial Robustness [66.29268991629085]
敵の訓練は、しばしばモデルの堅牢性を高めるために使用される。
我々は、この観測されたロバストネスの利得はロバストネスの錯覚(IOR)であることを示した。
我々は,NLPコミュニティに対して,試験時間温度のスケーリングを堅牢性評価に組み込むよう促す。
論文 参考訳(メタデータ) (2024-02-27T13:49:12Z) - Diffusion to Confusion: Naturalistic Adversarial Patch Generation Based
on Diffusion Model for Object Detector [18.021582628066554]
拡散モデル(DM)に基づく新しい自然主義逆パッチ生成法を提案する。
我々は、オブジェクト検出器に対するDMベースの自然主義的逆パッチ生成を初めて提案する。
論文 参考訳(メタデータ) (2023-07-16T15:22:30Z) - The Enemy of My Enemy is My Friend: Exploring Inverse Adversaries for
Improving Adversarial Training [72.39526433794707]
敵の訓練とその変種は、敵の例に対抗して最も効果的なアプローチであることが示されている。
本稿では,モデルが類似した出力を生成することを奨励する,新たな対角訓練手法を提案する。
本手法は,最先端のロバスト性および自然な精度を実現する。
論文 参考訳(メタデータ) (2022-11-01T15:24:26Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Improving White-box Robustness of Pre-processing Defenses via Joint Adversarial Training [106.34722726264522]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - On the Similarity of Deep Learning Representations Across Didactic and Adversarial Examples [0.0]
野におけるアドリラルな例は、正確に予測モデリングを行う上で、必然的に有害であることを示すかもしれない。
入力空間における逆例の頻度に応じて,表現的類似性と性能が変化することを示す。
論文 参考訳(メタデータ) (2020-02-17T07:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。