論文の概要: DIFFender: Diffusion-Based Adversarial Defense against Patch Attacks
- arxiv url: http://arxiv.org/abs/2306.09124v3
- Date: Mon, 11 Dec 2023 14:54:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 20:21:04.904935
- Title: DIFFender: Diffusion-Based Adversarial Defense against Patch Attacks
- Title(参考訳): DIFFender: 拡散に基づくパッチ攻撃に対する敵防衛
- Authors: Caixin Kang, Yinpeng Dong, Zhengyi Wang, Shouwei Ruan, Yubo Chen, Hang
Su, Xingxing Wei
- Abstract要約: 敵対的攻撃、特にパッチ攻撃は、ディープラーニングモデルの堅牢性と信頼性に重大な脅威をもたらす。
本稿では,テキスト誘導拡散モデルを利用した新たな防御手法であるDIFFenderを提案する。
- 参考スコア(独自算出の注目度): 36.6091114633227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks, particularly patch attacks, pose significant threats to
the robustness and reliability of deep learning models. Developing reliable
defenses against patch attacks is crucial for real-world applications, yet
current research in this area is unsatisfactory. In this paper, we propose
DIFFender, a novel defense method that leverages a text-guided diffusion model
to defend against adversarial patches. DIFFender includes two main stages:
patch localization and patch restoration. In the localization stage, we find
and exploit an intriguing property of the diffusion model to precisely identify
the locations of adversarial patches. In the restoration stage, we employ the
diffusion model to reconstruct the adversarial regions in the images while
preserving the integrity of the visual content. Thanks to the former finding,
these two stages can be simultaneously guided by a unified diffusion model.
Thus, we can utilize the close interaction between them to improve the whole
defense performance. Moreover, we propose a few-shot prompt-tuning algorithm to
fine-tune the diffusion model, enabling the pre-trained diffusion model to
adapt to the defense task easily. We conduct extensive experiments on image
classification, face recognition, and further in the physical world,
demonstrating that our proposed method exhibits superior robustness under
strong adaptive attacks and generalizes well across various scenarios, diverse
classifiers, and multiple patch attack methods.
- Abstract(参考訳): 敵対的攻撃、特にパッチ攻撃は、ディープラーニングモデルの堅牢性と信頼性に大きな脅威をもたらす。
パッチ攻撃に対する信頼性の高い防御を開発することは、現実世界のアプリケーションには不可欠だが、この分野における現在の研究は不十分である。
本稿では,テキスト誘導拡散モデルを用いた新たな防御手法であるdiffenderを提案する。
DIFFenderには、パッチローカライゼーションとパッチ復元の2つの主要なステージが含まれている。
ローカライゼーションの段階では,拡散モデルの興味深い性質を見つけ,利用することにより,敵パッチの位置を正確に同定する。
回復段階では,画像の対向領域を再構成するために拡散モデルを用い,視覚的内容の完全性を維持した。
前者の発見により、これらの2つの段階は統一拡散モデルによって同時に導かれる。
これにより、それら間の密接な相互作用を利用して、防御性能全体を改善することができる。
さらに, 拡散モデルを微調整し, 事前学習した拡散モデルが防御タスクに容易に適応できる数ショットプロンプトチューニングアルゴリズムを提案する。
画像分類,顔認識,さらに物理世界でのさらなる実験を行い,提案手法が強い適応攻撃下で優れたロバスト性を示し,様々なシナリオ,多様な分類器,複数のパッチ攻撃法にまたがる汎用性を示すことを実証した。
関連論文リスト
- Real-world Adversarial Defense against Patch Attacks based on Diffusion Model [34.86098237949215]
本稿では,DIFfusionをベースとした新しいDeFenderフレームワークであるDIFFenderを紹介する。
我々のアプローチの核心は、AAP(Adversarial Anomaly Perception)現象の発見である。
DIFFenderは、統一拡散モデルフレームワークにパッチのローカライゼーションと復元のタスクをシームレスに統合する。
論文 参考訳(メタデータ) (2024-09-14T10:38:35Z) - DiffuseDef: Improved Robustness to Adversarial Attacks [38.34642687239535]
敵の攻撃は、事前訓練された言語モデルを使って構築されたシステムにとって重要な課題となる。
本稿では,拡散層をエンコーダと分類器のデノイザとして組み込んだDiffuseDefを提案する。
推測中、敵対的隠蔽状態はまずサンプルノイズと組み合わせられ、次に反復的に復調され、最後にアンサンブルされ、堅牢なテキスト表現が生成される。
論文 参考訳(メタデータ) (2024-06-28T22:36:17Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Embodied Active Defense: Leveraging Recurrent Feedback to Counter Adversarial Patches [37.317604316147985]
敵のパッチに対するディープニューラルネットワークの脆弱性は、モデルロバスト性を高めるための多くの防衛戦略を動機付けている。
本研究では,環境情報を積極的に文脈化して,現実の3次元環境における不整合に対処するEmbodied Active Defense (EAD) を開発した。
論文 参考訳(メタデータ) (2024-03-31T03:02:35Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - RADAP: A Robust and Adaptive Defense Against Diverse Adversarial Patches
on Face Recognition [13.618387142029663]
ディープラーニングを利用した顔認識システムは、敵の攻撃に対して脆弱である。
多様な敵パッチに対する堅牢かつ適応的な防御機構であるRADAPを提案する。
RADAPの有効性を検証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2023-11-29T03:37:14Z) - DiffDefense: Defending against Adversarial Attacks via Diffusion Models [24.328384566645738]
機械学習モデルの摂動に対する感受性は、敵の攻撃に対して脆弱である。
提案手法は, クリーンな精度, 速度, プラグ・アンド・プレイの互換性を保ちながら, 敵の脅威に対する堅牢性を提供する。
論文 参考訳(メタデータ) (2023-09-07T13:28:36Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。