論文の概要: Fight Fire with Fire: Combating Adversarial Patch Attacks using
Pattern-randomized Defensive Patches
- arxiv url: http://arxiv.org/abs/2311.06122v1
- Date: Fri, 10 Nov 2023 15:36:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 14:55:05.594768
- Title: Fight Fire with Fire: Combating Adversarial Patch Attacks using
Pattern-randomized Defensive Patches
- Title(参考訳): 火で戦う:パターンランダム化された防御パッチによる敵のパッチ攻撃
- Authors: Jianan Feng, Jiachun Li, Changqing Miao, Jianjun Huang, Wei You,
Wenchang Shi, Bin Liang
- Abstract要約: 本稿では,敵攻撃を防御するための新規かつ汎用的な手法を提案する。
2種類の防御パッチ(カナリアとウッドペッカー)をインプットに注入し、潜在的対向パッチを積極的に調査または弱める。
提案手法の有効性と実用性は包括的実験により実証された。
- 参考スコア(独自算出の注目度): 12.947503245230866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection has found extensive applications in various tasks, but it is
also susceptible to adversarial patch attacks. Existing defense methods often
necessitate modifications to the target model or result in unacceptable time
overhead. In this paper, we adopt a counterattack approach, following the
principle of "fight fire with fire," and propose a novel and general
methodology for defending adversarial attacks. We utilize an active defense
strategy by injecting two types of defensive patches, canary and woodpecker,
into the input to proactively probe or weaken potential adversarial patches
without altering the target model. Moreover, inspired by randomization
techniques employed in software security, we employ randomized canary and
woodpecker injection patterns to defend against defense-aware attacks. The
effectiveness and practicality of the proposed method are demonstrated through
comprehensive experiments. The results illustrate that canary and woodpecker
achieve high performance, even when confronted with unknown attack methods,
while incurring limited time overhead. Furthermore, our method also exhibits
sufficient robustness against defense-aware attacks, as evidenced by adaptive
attack experiments.
- Abstract(参考訳): オブジェクト検出は様々なタスクで広範囲に応用されているが、敵のパッチ攻撃にも影響される。
既存の防御方法は、しばしばターゲットモデルの変更を必要とするか、あるいは許容できない時間オーバーヘッドをもたらす。
本稿では,「火炎と戦え」という原則に従って反撃アプローチを採り,敵対的攻撃を防御するための新規で汎用的な手法を提案する。
本研究では,2種類の防御パッチ,カナリアパッチ,ウッドペッカーを入力に注入し,標的モデルを変更することなく,潜在的な敵パッチを積極的に調査または弱めることにより,アクティブな防御戦略を利用する。
さらに,ソフトウェアセキュリティにおけるランダム化手法に着想を得て,ランダム化カナリアとウッドペッカーの注入パターンを用いて防御アウェア攻撃を防御する。
提案手法の有効性と実用性を総合実験により実証した。
その結果,カナリアとウッドペッカーは未知の攻撃手法に直面する場合でも高い性能を達成でき,時間的オーバーヘッドも少ないことがわかった。
さらに,アダプティブアタック実験で示されたように,防御認識攻撃に対する十分なロバスト性を示す。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Improving behavior based authentication against adversarial attack using XAI [3.340314613771868]
本稿では,eXplainable AI(XAI)をベースとした,このようなシナリオにおける敵攻撃に対する防御戦略を提案する。
本手法で訓練した特徴セレクタは,元の認証器の前のフィルタとして使用することができる。
我々は,XAIをベースとした防衛戦略が敵の攻撃に対して有効であり,他の防衛戦略よりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-02-26T09:29:05Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - A Random-patch based Defense Strategy Against Physical Attacks for Face
Recognition Systems [3.6202815454709536]
顔認識システム(FRS)の物理的攻撃を頑健に検出するランダムパッチ型防御戦略を提案する。
本手法は実世界の顔認識システムに容易に適用でき,検出性能を高めるために他の防御方法にも拡張できる。
論文 参考訳(メタデータ) (2023-04-16T16:11:56Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - BagFlip: A Certified Defense against Data Poisoning [15.44806926189642]
BagFlipは、トリガーレス攻撃とバックドア攻撃の両方を効果的に防御できる、モデルに依存しない認定アプローチである。
画像分類とマルウェア検出データセットを用いたBagFlipの評価を行った。
論文 参考訳(メタデータ) (2022-05-26T21:09:24Z) - Defending Against Person Hiding Adversarial Patch Attack with a
Universal White Frame [28.128458352103543]
高性能物体検出ネットワークは、敵のパッチ攻撃に対して脆弱である。
人身攻撃は、多くの安全クリティカルなアプリケーションにおいて深刻な問題として浮上している。
防御パターンを最適化することで人身攻撃を緩和する新しい防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-04-27T15:18:08Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - Certified Defenses for Adversarial Patches [72.65524549598126]
敵パッチ攻撃は、現実世界のコンピュータビジョンシステムに対する最も実用的な脅威モデルの一つである。
本稿では,パッチアタックに対する認証と実証的防御について検討する。
論文 参考訳(メタデータ) (2020-03-14T19:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。