論文の概要: Imperceptible Adversarial Examples in the Physical World
- arxiv url: http://arxiv.org/abs/2411.16622v1
- Date: Mon, 25 Nov 2024 18:02:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:23:28.332605
- Title: Imperceptible Adversarial Examples in the Physical World
- Title(参考訳): 物理界における非知覚的対立例
- Authors: Weilin Xu, Sebastian Szyller, Cory Cornelius, Luis Murillo Rojas, Marius Arvinte, Alvaro Velasquez, Jason Martin, Nageen Himayat,
- Abstract要約: 我々は、ストレートスルー推定器(STE、別名BPDA)を用いて、物理世界における敵対例を知覚できないものにする。
我々のSTEのレンダリング拡張は、物理的世界における知覚できない敵パッチも可能にします。
我々の知る限りでは、これは物理的世界の小さな規範に縛られた、知覚できない敵の例を示す最初の作品である。
- 参考スコア(独自算出の注目度): 10.981325924844167
- License:
- Abstract: Adversarial examples in the digital domain against deep learning-based computer vision models allow for perturbations that are imperceptible to human eyes. However, producing similar adversarial examples in the physical world has been difficult due to the non-differentiable image distortion functions in visual sensing systems. The existing algorithms for generating physically realizable adversarial examples often loosen their definition of adversarial examples by allowing unbounded perturbations, resulting in obvious or even strange visual patterns. In this work, we make adversarial examples imperceptible in the physical world using a straight-through estimator (STE, a.k.a. BPDA). We employ STE to overcome the non-differentiability -- applying exact, non-differentiable distortions in the forward pass of the backpropagation step, and using the identity function in the backward pass. Our differentiable rendering extension to STE also enables imperceptible adversarial patches in the physical world. Using printout photos, and experiments in the CARLA simulator, we show that STE enables fast generation of $\ell_\infty$ bounded adversarial examples despite the non-differentiable distortions. To the best of our knowledge, this is the first work demonstrating imperceptible adversarial examples bounded by small $\ell_\infty$ norms in the physical world that force zero classification accuracy in the global perturbation threat model and cause near-zero ($4.22\%$) AP50 in object detection in the patch perturbation threat model. We urge the community to re-evaluate the threat of adversarial examples in the physical world.
- Abstract(参考訳): ディープラーニングベースのコンピュータビジョンモデルに対するデジタルドメインの逆例は、人間の目では知覚できない摂動を可能にします。
しかし, 視覚センサシステムにおいて, 画像歪み関数が非微分可能であることから, 物理界における類似の逆例の生成は困難である。
物理的に実現可能な敵の例を生成する既存のアルゴリズムは、非有界な摂動を許すことで、しばしば敵の例の定義を緩める。
本研究は, ストレートスルー推定器(STE, BPDA)を用いて, 物理世界における敵対例を知覚不能にする。
我々はSTEを用いて、後方プロパゲーションステップの前方パスに正確に非微分可能な歪みを適用し、後方パスのアイデンティティ関数を使用する。
我々のSTEのレンダリング拡張は、物理的世界における知覚できない敵パッチも可能にします。
CARLAシミュレータでのプリントアウト写真と実験により、STEは微分不可能な歪みにもかかわらず、$\ell_\infty$bounded adversarial例を高速に生成できることが示されている。
我々の知る限りでは、これは物理的世界の小さな$\ell_\infty$ノルムに縛られ、世界摂動脅威モデルにおける分類精度をゼロにし、パッチ摂動脅威モデルにおけるオブジェクト検出においてほぼゼロ (4.22\%$) AP50を引き起こす、知覚できない敵の例を示す最初の研究である。
我々は,自然界における敵例の脅威を再評価するようコミュニティに促す。
関連論文リスト
- Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Transcending Adversarial Perturbations: Manifold-Aided Adversarial
Examples with Legitimate Semantics [10.058463432437659]
ディープニューラルネットワークは、悪意のある小さな摂動によって操作される敵の例に対して、極めて脆弱であった。
本稿では, 現実的, 合法的意味論による敵対的事例を生成するために, 教師付き意味変換生成モデルを提案する。
MNISTおよび産業用欠陥データセットを用いた実験により、我々の敵の例は、より良い視覚的品質を示しただけでなく、優れた攻撃伝達性を示した。
論文 参考訳(メタデータ) (2024-02-05T15:25:40Z) - Isometric 3D Adversarial Examples in the Physical World [34.291370103424995]
3Dディープラーニングモデルは、2Dモデルと同じくらい敵対的な例に弱いことが示されている。
既存の攻撃方法はまだステルスには程遠いので、物理的な世界では深刻なパフォーマンス劣化に悩まされている。
本研究では, 自然かつ堅牢な3次元対向例を生成するために, 新規な$epsilon$-isometric ($epsilon$-ISO) 攻撃を提案する。
論文 参考訳(メタデータ) (2022-10-27T09:58:15Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - NaturalAE: Natural and Robust Physical Adversarial Examples for Object
Detectors [6.4039013462213]
本研究では,実環境下での物体検出を対象とする,自然かつ堅牢な物理対角攻撃法を提案する。
生成した逆の例は、様々な物理的制約に対して堅牢であり、元の画像と視覚的に類似している。
提案手法は, 生成した逆数例の自然さを保証し, 追加の摂動の大きさは既存作品の摂動よりもはるかに小さい。
論文 参考訳(メタデータ) (2020-11-27T12:03:53Z) - On the Similarity of Deep Learning Representations Across Didactic and Adversarial Examples [0.0]
野におけるアドリラルな例は、正確に予測モデリングを行う上で、必然的に有害であることを示すかもしれない。
入力空間における逆例の頻度に応じて,表現的類似性と性能が変化することを示す。
論文 参考訳(メタデータ) (2020-02-17T07:49:20Z) - AdvJND: Generating Adversarial Examples with Just Noticeable Difference [3.638233924421642]
例に小さな摂動を加えると、優れたパフォーマンスモデルが工芸品の例を誤って分類する。
我々のAdvJNDアルゴリズムが生成した逆例は、元の入力に類似した分布を生成する。
論文 参考訳(メタデータ) (2020-02-01T09:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。