論文の概要: DIFFender: Diffusion-Based Adversarial Defense against Patch Attacks in
the Physical World
- arxiv url: http://arxiv.org/abs/2306.09124v1
- Date: Thu, 15 Jun 2023 13:33:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 14:35:54.004192
- Title: DIFFender: Diffusion-Based Adversarial Defense against Patch Attacks in
the Physical World
- Title(参考訳): DIFFender:物理世界でのパッチ攻撃に対する拡散ベースの敵防衛
- Authors: Caixin Kang, Yinpeng Dong, Zhengyi Wang, Shouwei Ruan, Hang Su,
Xingxing Wei
- Abstract要約: 物理的世界のアドリアック、特にパッチ攻撃は、ディープラーニングモデルの堅牢性と信頼性に重大な脅威をもたらす。
本研究では,事前学習した拡散モデルを利用して,潜在的な敵パッチ攻撃に対する局所化と防御を行う新しい防御手法であるDIFFenderを提案する。
画像分類と顔認識に関する広範な実験を行い、DIFFenderが強い適応攻撃下で優れた堅牢性を示すことを示す。
- 参考スコア(独自算出の注目度): 24.28893441268894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks in the physical world, particularly patch attacks, pose
significant threats to the robustness and reliability of deep learning models.
Developing reliable defenses against patch attacks is crucial for real-world
applications, yet current research in this area is severely lacking. In this
paper, we propose DIFFender, a novel defense method that leverages the
pre-trained diffusion model to perform both localization and defense against
potential adversarial patch attacks. DIFFender is designed as a pipeline
consisting of two main stages: patch localization and restoration. In the
localization stage, we exploit the intriguing properties of a diffusion model
to effectively identify the locations of adversarial patches. In the
restoration stage, we employ a text-guided diffusion model to eliminate
adversarial regions in the image while preserving the integrity of the visual
content. Additionally, we design a few-shot prompt-tuning algorithm to
facilitate simple and efficient tuning, enabling the learned representations to
easily transfer to downstream tasks, which optimize two stages jointly. We
conduct extensive experiments on image classification and face recognition to
demonstrate that DIFFender exhibits superior robustness under strong adaptive
attacks and generalizes well across various scenarios, diverse classifiers, and
multiple attack methods.
- Abstract(参考訳): 物理世界の敵対的攻撃、特にパッチ攻撃は、ディープラーニングモデルの堅牢性と信頼性に重大な脅威をもたらす。
パッチアタックに対する信頼性の高い防御を開発することは、現実世界のアプリケーションには不可欠だが、この分野の現在の研究は極めて不足している。
本稿では,事前学習した拡散モデルを利用して,潜在的な敵パッチ攻撃に対する局所化と防御を行う新しい防御手法であるDIFFenderを提案する。
DIFFenderは2つの主要なステージからなるパイプラインとして設計されている。
ローカライゼーション段階では,拡散モデルの興味深い性質を利用して,敵パッチの位置を効果的に同定する。
復元段階では,視覚コンテンツの完全性を維持しつつ,画像内の逆領域を排除するためにテキスト誘導拡散モデルを用いる。
さらに,数発のプロンプトチューニングアルゴリズムを設計して,シンプルで効率的なチューニングを容易にし,学習した表現を下流のタスクに簡単に転送し,2つのステージを共同で最適化する。
画像分類と顔認識に関する広範囲な実験を行い,ディフェンダーが強い適応攻撃下で優れたロバスト性を示し,様々なシナリオ,多様な分類器,複数の攻撃方法にまたがる汎用性を示すことを示す。
関連論文リスト
- Revealing Vulnerabilities in Stable Diffusion via Targeted Attacks [41.531913152661296]
本稿では,安定拡散に対する標的対向攻撃の問題を定式化し,対向的プロンプトを生成するための枠組みを提案する。
具体的には、安定した拡散を誘導し、特定の画像を生成するための信頼性の高い逆プロンプトを構築するために、勾配に基づく埋め込み最適化を設計する。
逆方向のプロンプトを成功させた後、モデルの脆弱性を引き起こすメカニズムを明らかにする。
論文 参考訳(メタデータ) (2024-01-16T12:15:39Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - DiffDefense: Defending against Adversarial Attacks via Diffusion Models [24.328384566645738]
機械学習モデルの摂動に対する感受性は、敵の攻撃に対して脆弱である。
提案手法は, クリーンな精度, 速度, プラグ・アンド・プレイの互換性を保ちながら, 敵の脅威に対する堅牢性を提供する。
論文 参考訳(メタデータ) (2023-09-07T13:28:36Z) - Distributional Modeling for Location-Aware Adversarial Patches [28.466804363780557]
Distribution-d Adversarial Patch (DOPatch) は, 対向位置のマルチモーダル分布を最適化する新しい手法である。
DOPatchは、敵位置の分布を特徴付けることで、多様な敵サンプルを生成することができる。
顔認識および画像認識タスクにおけるDOPatchの評価を行い、既存の手法よりも優れた性能と効率性を示す。
論文 参考訳(メタデータ) (2023-06-28T12:01:50Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Diffusion Models for Imperceptible and Transferable Adversarial Attack [23.991194050494396]
本稿では,拡散モデルの生成的および識別的パワーを両立させることにより,新たな非受容的かつ伝達可能な攻撃を提案する。
提案手法であるDiffAttackは,対向攻撃場に拡散モデルを導入する最初の方法である。
論文 参考訳(メタデータ) (2023-05-14T16:02:36Z) - Defensive Patches for Robust Recognition in the Physical World [111.46724655123813]
データエンドディフェンスは、モデルを変更する代わりに入力データの操作によって堅牢性を改善する。
従来のデータエンドディフェンスは、様々なノイズに対する低一般化と、複数のモデル間での弱い転送可能性を示している。
モデルがこれらの機能をよりよく活用することを支援することにより、これらの問題に対処するための防御パッチ生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-13T07:34:51Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Optimal Transport as a Defense Against Adversarial Attacks [4.6193503399184275]
敵対的攻撃は、訓練されたモデルを誤解させる画像に対して、人間の知覚できない摂動を見つけることができる。
従来の研究は、原画像と敵対画像の整合性をドメイン適応と同等に調整し、堅牢性を向上させることを目的としていた。
地上距離を忠実に反映した分布間の損失を用いることを提案する。
これによりSAT (Sinkhorn Adversarial Training) は敵の攻撃に対してより堅牢な防衛を行う。
論文 参考訳(メタデータ) (2021-02-05T13:24:36Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。