論文の概要: Patch of Invisibility: Naturalistic Physical Black-Box Adversarial
Attacks on Object Detectors
- arxiv url: http://arxiv.org/abs/2303.04238v4
- Date: Tue, 17 Oct 2023 09:16:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 22:31:37.747969
- Title: Patch of Invisibility: Naturalistic Physical Black-Box Adversarial
Attacks on Object Detectors
- Title(参考訳): 視認性のパッチ:物体検出器に対する自然主義的物理ブラックボックス攻撃
- Authors: Raz Lapid, Eylon Mizrahi and Moshe Sipper
- Abstract要約: 物体検出器の物理的逆パッチを生成するために, 直接的, ブラックボックス, グラデーションフリーな手法を提案する。
我々の知る限り、これはオブジェクト検出モデルに直接ブラックボックス物理攻撃を実行する最初の、かつ唯一の方法である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks on deep-learning models have been receiving increased
attention in recent years. Work in this area has mostly focused on
gradient-based techniques, so-called ``white-box'' attacks, wherein the
attacker has access to the targeted model's internal parameters; such an
assumption is usually unrealistic in the real world. Some attacks additionally
use the entire pixel space to fool a given model, which is neither practical
nor physical (i.e., real-world). On the contrary, we propose herein a direct,
black-box, gradient-free method that uses the learned image manifold of a
pretrained generative adversarial network (GAN) to generate naturalistic
physical adversarial patches for object detectors. To our knowledge this is the
first and only method that performs black-box physical attacks directly on
object-detection models, which results with a model-agnostic attack. We show
that our proposed method works both digitally and physically. We compared our
approach against four different black-box attacks with different
configurations. Our approach outperformed all other approaches that were tested
in our experiments by a large margin.
- Abstract(参考訳): 近年,ディープラーニングモデルに対する敵意攻撃が注目されている。
この領域での作業は、主に「ホワイトボックス」攻撃と呼ばれる勾配に基づく手法に焦点を当てており、攻撃者はターゲットモデルの内部パラメータにアクセスすることができる。
さらに、一部の攻撃はピクセル空間全体を使って特定のモデルを騙すが、実用的でも物理的でもない(実世界)。
そこで本研究では,前訓練された生成逆ネットワーク (gan) の学習画像多様体を用いて,物体検出器に対する自然主義的な物理敵パッチを生成する,ブラックボックス・勾配フリーな直接的手法を提案する。
私たちの知る限り、これはオブジェクト検出モデルに直接ブラックボックス物理攻撃を実行する最初の方法であり、モデルに依存しない攻撃となる。
提案手法はデジタルと物理の両方で動作することを示す。
我々は、異なる構成の4つのブラックボックス攻撃に対するアプローチを比較した。
私たちのアプローチは、実験でテストされた他のすべてのアプローチを大きなマージンで上回りました。
関連論文リスト
- BB-Patch: BlackBox Adversarial Patch-Attack using Zeroth-Order Optimization [10.769992215544358]
敵の攻撃戦略は、敵が訓練データ、モデルパラメータ、配置中の入力にアクセスすることを前提としている。
入力画像のどこにでも適用可能な敵パッチを生成するブラックボックスの敵攻撃戦略を提案する。
論文 参考訳(メタデータ) (2024-05-09T18:42:26Z) - Understanding the Robustness of Randomized Feature Defense Against
Query-Based Adversarial Attacks [23.010308600769545]
ディープニューラルネットワークは、元の画像に近いサンプルを見つける敵の例に弱いが、モデルを誤分類させる可能性がある。
モデル中間層における隠れた特徴にランダムノイズを付加することにより,ブラックボックス攻撃に対する簡易かつ軽量な防御法を提案する。
本手法は,スコアベースと決定ベースの両方のブラックボックス攻撃に対するモデルのレジリエンスを効果的に向上させる。
論文 参考訳(メタデータ) (2023-10-01T03:53:23Z) - Ensemble-based Blackbox Attacks on Dense Prediction [16.267479602370543]
慎重に設計されたアンサンブルは、多くの犠牲者モデルに対して効果的な攻撃を発生させることができることを示す。
特に,個々のモデルに対する重み付けの正規化が,攻撃の成功に重要な役割を担っていることを示す。
提案手法は同時に複数のブラックボックス検出とセグメンテーションモデルを騙すことができる単一摂動を生成することができる。
論文 参考訳(メタデータ) (2023-03-25T00:08:03Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Art-Attack: Black-Box Adversarial Attack via Evolutionary Art [5.760976250387322]
ディープニューラルネットワーク(DNN)は多くのタスクで最先端のパフォーマンスを達成したが、敵の例によって生成された攻撃に対して極端な脆弱性を示している。
本稿では, 進化芸術の概念を用いて, 敵対的事例を生成することによって, 勾配のない攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-07T12:54:09Z) - Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection [89.08832589750003]
本稿では,攻撃領域近傍の準最適検出を回避するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
提案手法は, アンカーベースやアンカーフリーなど, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
論文 参考訳(メタデータ) (2022-01-22T06:00:17Z) - Decision-based Universal Adversarial Attack [55.76371274622313]
ブラックボックス設定では、現在の普遍的敵攻撃法は代用モデルを用いて摂動を生成する。
効率的な決定に基づくユニバーサルアタック(DUAttack)を提案する。
DUAttackの有効性は、他の最先端攻撃との比較によって検証される。
論文 参考訳(メタデータ) (2020-09-15T12:49:03Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Spanning Attack: Reinforce Black-box Attacks with Unlabeled Data [96.92837098305898]
Black-box攻撃は、機械学習モデルのインプット・アウトプットペアをクエリすることで、敵の摂動を発生させることを目的としている。
ブラックボックス攻撃はしばしば、入力空間の高次元性のためにクエリ非効率性の問題に悩まされる。
本研究では,低次元部分空間における逆摂動を,補助的なラベルのないデータセットに分散させることで抑制するスパンニング攻撃と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-11T05:57:15Z) - Using an ensemble color space model to tackle adversarial examples [22.732023268348787]
このような攻撃を防御する3段階の手法を提案する。
まず,統計的手法を用いて画像の識別を行う。
第二に、同じモデルに複数の色空間を採用することは、これらの敵対的攻撃と戦うのに役立ちます。
論文 参考訳(メタデータ) (2020-03-10T21:20:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。