論文の概要: Fight Fire with Fire: Combating Adversarial Patch Attacks using Pattern-randomized Defensive Patches
- arxiv url: http://arxiv.org/abs/2311.06122v2
- Date: Fri, 08 Nov 2024 03:55:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 14:52:25.901781
- Title: Fight Fire with Fire: Combating Adversarial Patch Attacks using Pattern-randomized Defensive Patches
- Title(参考訳): 火で戦う:パターンランダム化された防御パッチによる敵のパッチ攻撃
- Authors: Jianan Feng, Jiachun Li, Changqing Miao, Jianjun Huang, Wei You, Wenchang Shi, Bin Liang,
- Abstract要約: オブジェクト検出は、敵のパッチ攻撃の影響を受けやすい。
本稿では,敵の攻撃を防御するための新規かつ汎用的な手法を提案する。
カナリアとウッドペッカーの2種類の防御パッチが特別に製作され、モデル入力に注入され、潜在的な敵のパッチを積極的に調査または対向させる。
- 参考スコア(独自算出の注目度): 12.329244399788669
- License:
- Abstract: Object detection has found extensive applications in various tasks, but it is also susceptible to adversarial patch attacks. The ideal defense should be effective, efficient, easy to deploy, and capable of withstanding adaptive attacks. In this paper, we adopt a counterattack strategy to propose a novel and general methodology for defending adversarial attacks. Two types of defensive patches, canary and woodpecker, are specially-crafted and injected into the model input to proactively probe or counteract potential adversarial patches. In this manner, adversarial patch attacks can be effectively detected by simply analyzing the model output, without the need to alter the target model. Moreover, we employ randomized canary and woodpecker injection patterns to defend against defense-aware attacks. The effectiveness and practicality of the proposed method are demonstrated through comprehensive experiments. The results illustrate that canary and woodpecker achieve high performance, even when confronted with unknown attack methods, while incurring limited time overhead. Furthermore, our method also exhibits sufficient robustness against defense-aware attacks, as evidenced by adaptive attack experiments.
- Abstract(参考訳): オブジェクト検出は様々なタスクで広範囲のアプリケーションを見つけてきたが、敵のパッチ攻撃にも影響を受けやすい。
理想的な防御は、効果的で、効率的で、展開が容易で、適応的な攻撃に耐えられるべきである。
本稿では,敵の攻撃を防御するための新規で汎用的な手法を提案するために,反撃戦略を採用する。
カナリアとウッドペッカーの2種類の防御パッチが特別に製作され、モデル入力に注入され、潜在的な敵のパッチを積極的に調査または対向させる。
このように、ターゲットモデルを変更することなく、単純にモデル出力を分析することで、敵パッチ攻撃を効果的に検出することができる。
さらに,無作為なカナリアインジェクションパターンとウッドペッカーインジェクションパターンを用いて,防衛意識の攻撃を防ぐ。
提案手法の有効性と実用性は包括的実験により実証された。
その結果、カナリアとキツツキは、未知の攻撃手法に直面する場合であっても、限られた時間的オーバーヘッドを伴いながら高い性能を発揮することが示された。
さらに,本手法は,アダプティブアタック実験によって実証された,防衛意識攻撃に対する十分な堅牢性を示す。
関連論文リスト
- SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Improving behavior based authentication against adversarial attack using XAI [3.340314613771868]
本稿では,eXplainable AI(XAI)をベースとした,このようなシナリオにおける敵攻撃に対する防御戦略を提案する。
本手法で訓練した特徴セレクタは,元の認証器の前のフィルタとして使用することができる。
我々は,XAIをベースとした防衛戦略が敵の攻撃に対して有効であり,他の防衛戦略よりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-02-26T09:29:05Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - A Random-patch based Defense Strategy Against Physical Attacks for Face
Recognition Systems [3.6202815454709536]
顔認識システム(FRS)の物理的攻撃を頑健に検出するランダムパッチ型防御戦略を提案する。
本手法は実世界の顔認識システムに容易に適用でき,検出性能を高めるために他の防御方法にも拡張できる。
論文 参考訳(メタデータ) (2023-04-16T16:11:56Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Defending Against Person Hiding Adversarial Patch Attack with a
Universal White Frame [28.128458352103543]
高性能物体検出ネットワークは、敵のパッチ攻撃に対して脆弱である。
人身攻撃は、多くの安全クリティカルなアプリケーションにおいて深刻な問題として浮上している。
防御パターンを最適化することで人身攻撃を緩和する新しい防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-04-27T15:18:08Z) - We Can Always Catch You: Detecting Adversarial Patched Objects WITH or
WITHOUT Signature [3.5272597442284104]
本稿では,オブジェクト検出に対する逆パッチ攻撃の検知問題について検討する。
高速シグネチャベース防御法を提案し,有効であることが実証された。
新たに生成された敵パッチは、提案されたシグネチャベースの防御を回避できる。
本稿では,内部コンテンツセマンティクスの整合性に基づく署名に依存しない新しい検出手法を提案する。
論文 参考訳(メタデータ) (2021-06-09T17:58:08Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - Certified Defenses for Adversarial Patches [72.65524549598126]
敵パッチ攻撃は、現実世界のコンピュータビジョンシステムに対する最も実用的な脅威モデルの一つである。
本稿では,パッチアタックに対する認証と実証的防御について検討する。
論文 参考訳(メタデータ) (2020-03-14T19:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。