論文の概要: Why Don't You Clean Your Glasses? Perception Attacks with Dynamic
Optical Perturbations
- arxiv url: http://arxiv.org/abs/2307.13131v2
- Date: Thu, 27 Jul 2023 21:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-31 15:01:01.191625
- Title: Why Don't You Clean Your Glasses? Perception Attacks with Dynamic
Optical Perturbations
- Title(参考訳): なぜガラスをきれいにしないのか?
動的光摂動による知覚攻撃
- Authors: Yi Han, Matthew Chan, Eric Wengrowski, Zhuohuan Li, Nils Ole
Tippenhauer, Mani Srivastava, Saman Zonouz, Luis Garcia
- Abstract要約: 敵の攻撃を物理的世界に適応させることが、攻撃者にとって望ましい。
EvilEyeは、ディスプレイを透過的に利用し、ダイナミックな物理的逆転の例を生成する、中間者認識攻撃である。
- 参考スコア(独自算出の注目度): 17.761200546223442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Camera-based autonomous systems that emulate human perception are
increasingly being integrated into safety-critical platforms. Consequently, an
established body of literature has emerged that explores adversarial attacks
targeting the underlying machine learning models. Adapting adversarial attacks
to the physical world is desirable for the attacker, as this removes the need
to compromise digital systems. However, the real world poses challenges related
to the "survivability" of adversarial manipulations given environmental noise
in perception pipelines and the dynamicity of autonomous systems. In this
paper, we take a sensor-first approach. We present EvilEye, a man-in-the-middle
perception attack that leverages transparent displays to generate dynamic
physical adversarial examples. EvilEye exploits the camera's optics to induce
misclassifications under a variety of illumination conditions. To generate
dynamic perturbations, we formalize the projection of a digital attack into the
physical domain by modeling the transformation function of the captured image
through the optical pipeline. Our extensive experiments show that EvilEye's
generated adversarial perturbations are much more robust across varying
environmental light conditions relative to existing physical perturbation
frameworks, achieving a high attack success rate (ASR) while bypassing
state-of-the-art physical adversarial detection frameworks. We demonstrate that
the dynamic nature of EvilEye enables attackers to adapt adversarial examples
across a variety of objects with a significantly higher ASR compared to
state-of-the-art physical world attack frameworks. Finally, we discuss
mitigation strategies against the EvilEye attack.
- Abstract(参考訳): 人間の知覚をエミュレートするカメラベースの自律システムは、ますます安全クリティカルなプラットフォームに統合されている。
その結果、基盤となる機械学習モデルをターゲットにした敵対的攻撃を探求する確立された文献が出現した。
敵の攻撃を物理的な世界に適応させることは、攻撃者にとって望ましいことだ。
しかし、現実の世界は、知覚パイプラインにおける環境ノイズと自律システムの動的性によって生じる敵の操作の「生存可能性」に関わる課題を提起している。
本稿では,センサファーストアプローチについて述べる。
EvilEyeは、ディスプレイを透過的に利用し、ダイナミックな物理的逆転の例を生成する。
EvilEyeはカメラの光学を利用して様々な照明条件下での誤分類を誘導する。
動的摂動を生成するために, 撮像された画像の光学パイプラインによる変換関数をモデル化し, ディジタルアタックの物理領域への投影を定式化する。
EvilEyeが生成した逆方向の摂動は、既存の物理的摂動フレームワークと比較して様々な環境光条件においてより堅牢であり、最先端の物理的逆方向検出フレームワークをバイパスしながら高い攻撃成功率(ASR)を達成することを示す。
evileyeのダイナミックな性質により、攻撃者は最先端の物理世界攻撃フレームワークと比較して、asrが大幅に高いさまざまなオブジェクトに敵意的な例を適応させることができる。
最後に,悪眼攻撃に対する緩和戦略について論じる。
関連論文リスト
- Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - AdvGen: Physical Adversarial Attack on Face Presentation Attack
Detection Systems [17.03646903905082]
敵対的攻撃が注目を集めており、認識システムの学習戦略をデジタルで欺こうとしている。
本稿では,物理世界のシナリオにおいて,顔認証システムの逆画像に対する脆弱性を実証する。
本稿では,自動生成支援ネットワークであるAdvGenを提案し,印刷・再生攻撃をシミュレートし,最先端のPADを騙すことのできる逆画像を生成する。
論文 参考訳(メタデータ) (2023-11-20T13:28:42Z) - State-of-the-art optical-based physical adversarial attacks for deep
learning computer vision systems [3.3470481105928216]
敵対的攻撃は、人間の目には認識できない最初の入力に小さな摂動を埋め込むことで、深層学習モデルを誤認し、誤った予測をする可能性がある。
物理的敵対攻撃は、より現実的なもので、摂動が入力に導入され、キャプチャされてバイナリ画像に変換される。
本稿では,コンピュータビジョンシステムのための光学的物理対向攻撃技術に焦点を当てる。
論文 参考訳(メタデータ) (2023-03-22T01:14:52Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - A Survey on Physical Adversarial Attack in Computer Vision [7.053905447737444]
ディープニューラルネットワーク(DNN)は、悪意のある小さなノイズによって作られた敵の例に弱いことが示されている。
DNNベースのシステムを現実世界に展開する機会が増えているため、これらのシステムの堅牢性を強化することは非常事態である。
論文 参考訳(メタデータ) (2022-09-28T17:23:52Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - DPA: Learning Robust Physical Adversarial Camouflages for Object
Detectors [5.598600329573922]
そこで本研究では,Dense Proposals Attack (DPA) を提案し,検出器の頑健で物理的,ターゲットとした対向カモフラージュを学習する。
カモフラージュは、任意の視点と異なる照明条件下で撮影されたとき、敵対的であり続けるため、頑丈である。
We build a virtual 3D scene using the Unity Simulation engine to evaluate fair and reproducally different physical attack。
論文 参考訳(メタデータ) (2021-09-01T00:18:17Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Robust Attacks on Deep Learning Face Recognition in the Physical World [48.909604306342544]
FaceAdvは、敵のステッカーを使ってFRシステムを騙す物理世界の攻撃だ。
主にステッカージェネレータとトランスフォーマーで構成され、前者は異なる形状のステッカーを作れる。
3種類のFRシステムに対するFaceAdvの有効性を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-11-27T02:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。