論文の概要: DIFFender: Diffusion-Based Adversarial Defense against Patch Attacks
- arxiv url: http://arxiv.org/abs/2306.09124v3
- Date: Mon, 11 Dec 2023 14:54:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 20:21:04.904935
- Title: DIFFender: Diffusion-Based Adversarial Defense against Patch Attacks
- Title(参考訳): DIFFender: 拡散に基づくパッチ攻撃に対する敵防衛
- Authors: Caixin Kang, Yinpeng Dong, Zhengyi Wang, Shouwei Ruan, Yubo Chen, Hang
Su, Xingxing Wei
- Abstract要約: 敵対的攻撃、特にパッチ攻撃は、ディープラーニングモデルの堅牢性と信頼性に重大な脅威をもたらす。
本稿では,テキスト誘導拡散モデルを利用した新たな防御手法であるDIFFenderを提案する。
- 参考スコア(独自算出の注目度): 36.6091114633227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks, particularly patch attacks, pose significant threats to
the robustness and reliability of deep learning models. Developing reliable
defenses against patch attacks is crucial for real-world applications, yet
current research in this area is unsatisfactory. In this paper, we propose
DIFFender, a novel defense method that leverages a text-guided diffusion model
to defend against adversarial patches. DIFFender includes two main stages:
patch localization and patch restoration. In the localization stage, we find
and exploit an intriguing property of the diffusion model to precisely identify
the locations of adversarial patches. In the restoration stage, we employ the
diffusion model to reconstruct the adversarial regions in the images while
preserving the integrity of the visual content. Thanks to the former finding,
these two stages can be simultaneously guided by a unified diffusion model.
Thus, we can utilize the close interaction between them to improve the whole
defense performance. Moreover, we propose a few-shot prompt-tuning algorithm to
fine-tune the diffusion model, enabling the pre-trained diffusion model to
adapt to the defense task easily. We conduct extensive experiments on image
classification, face recognition, and further in the physical world,
demonstrating that our proposed method exhibits superior robustness under
strong adaptive attacks and generalizes well across various scenarios, diverse
classifiers, and multiple patch attack methods.
- Abstract(参考訳): 敵対的攻撃、特にパッチ攻撃は、ディープラーニングモデルの堅牢性と信頼性に大きな脅威をもたらす。
パッチ攻撃に対する信頼性の高い防御を開発することは、現実世界のアプリケーションには不可欠だが、この分野における現在の研究は不十分である。
本稿では,テキスト誘導拡散モデルを用いた新たな防御手法であるdiffenderを提案する。
DIFFenderには、パッチローカライゼーションとパッチ復元の2つの主要なステージが含まれている。
ローカライゼーションの段階では,拡散モデルの興味深い性質を見つけ,利用することにより,敵パッチの位置を正確に同定する。
回復段階では,画像の対向領域を再構成するために拡散モデルを用い,視覚的内容の完全性を維持した。
前者の発見により、これらの2つの段階は統一拡散モデルによって同時に導かれる。
これにより、それら間の密接な相互作用を利用して、防御性能全体を改善することができる。
さらに, 拡散モデルを微調整し, 事前学習した拡散モデルが防御タスクに容易に適応できる数ショットプロンプトチューニングアルゴリズムを提案する。
画像分類,顔認識,さらに物理世界でのさらなる実験を行い,提案手法が強い適応攻撃下で優れたロバスト性を示し,様々なシナリオ,多様な分類器,複数のパッチ攻撃法にまたがる汎用性を示すことを実証した。
関連論文リスト
- Revealing Vulnerabilities in Stable Diffusion via Targeted Attacks [41.531913152661296]
本稿では,安定拡散に対する標的対向攻撃の問題を定式化し,対向的プロンプトを生成するための枠組みを提案する。
具体的には、安定した拡散を誘導し、特定の画像を生成するための信頼性の高い逆プロンプトを構築するために、勾配に基づく埋め込み最適化を設計する。
逆方向のプロンプトを成功させた後、モデルの脆弱性を引き起こすメカニズムを明らかにする。
論文 参考訳(メタデータ) (2024-01-16T12:15:39Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - DiffDefense: Defending against Adversarial Attacks via Diffusion Models [24.328384566645738]
機械学習モデルの摂動に対する感受性は、敵の攻撃に対して脆弱である。
提案手法は, クリーンな精度, 速度, プラグ・アンド・プレイの互換性を保ちながら, 敵の脅威に対する堅牢性を提供する。
論文 参考訳(メタデータ) (2023-09-07T13:28:36Z) - Distributional Modeling for Location-Aware Adversarial Patches [28.466804363780557]
Distribution-d Adversarial Patch (DOPatch) は, 対向位置のマルチモーダル分布を最適化する新しい手法である。
DOPatchは、敵位置の分布を特徴付けることで、多様な敵サンプルを生成することができる。
顔認識および画像認識タスクにおけるDOPatchの評価を行い、既存の手法よりも優れた性能と効率性を示す。
論文 参考訳(メタデータ) (2023-06-28T12:01:50Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Diffusion Models for Imperceptible and Transferable Adversarial Attack [23.991194050494396]
本稿では,拡散モデルの生成的および識別的パワーを両立させることにより,新たな非受容的かつ伝達可能な攻撃を提案する。
提案手法であるDiffAttackは,対向攻撃場に拡散モデルを導入する最初の方法である。
論文 参考訳(メタデータ) (2023-05-14T16:02:36Z) - Defensive Patches for Robust Recognition in the Physical World [111.46724655123813]
データエンドディフェンスは、モデルを変更する代わりに入力データの操作によって堅牢性を改善する。
従来のデータエンドディフェンスは、様々なノイズに対する低一般化と、複数のモデル間での弱い転送可能性を示している。
モデルがこれらの機能をよりよく活用することを支援することにより、これらの問題に対処するための防御パッチ生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-13T07:34:51Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Optimal Transport as a Defense Against Adversarial Attacks [4.6193503399184275]
敵対的攻撃は、訓練されたモデルを誤解させる画像に対して、人間の知覚できない摂動を見つけることができる。
従来の研究は、原画像と敵対画像の整合性をドメイン適応と同等に調整し、堅牢性を向上させることを目的としていた。
地上距離を忠実に反映した分布間の損失を用いることを提案する。
これによりSAT (Sinkhorn Adversarial Training) は敵の攻撃に対してより堅牢な防衛を行う。
論文 参考訳(メタデータ) (2021-02-05T13:24:36Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。