論文の概要: Iterative Window Mean Filter: Thwarting Diffusion-based Adversarial Purification
- arxiv url: http://arxiv.org/abs/2408.10673v2
- Date: Tue, 29 Oct 2024 14:46:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 06:33:41.981207
- Title: Iterative Window Mean Filter: Thwarting Diffusion-based Adversarial Purification
- Title(参考訳): 反復窓平均フィルタ:拡散に基づく逆浄化の回避
- Authors: Hanrui Wang, Ruoxi Sun, Cunjian Chen, Minhui Xue, Lay-Ki Soon, Shuo Wang, Zhe Jin,
- Abstract要約: 顔認証システムは、敵攻撃のような目立たない摂動に敏感なため、信頼性が低い。
我々はIWMF (Iterative Window Mean Filter) と呼ばれる,新しい非深層学習に基づく画像フィルタを開発した。
我々は,IWMFと拡散モデルを統合した,IWMF-Diffという逆浄化のための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 26.875621618432504
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Face authentication systems have brought significant convenience and advanced developments, yet they have become unreliable due to their sensitivity to inconspicuous perturbations, such as adversarial attacks. Existing defenses often exhibit weaknesses when facing various attack algorithms and adaptive attacks or compromise accuracy for enhanced security. To address these challenges, we have developed a novel and highly efficient non-deep-learning-based image filter called the Iterative Window Mean Filter (IWMF) and proposed a new framework for adversarial purification, named IWMF-Diff, which integrates IWMF and denoising diffusion models. These methods can function as pre-processing modules to eliminate adversarial perturbations without necessitating further modifications or retraining of the target system. We demonstrate that our proposed methodologies fulfill four critical requirements: preserved accuracy, improved security, generalizability to various threats in different settings, and better resistance to adaptive attacks. This performance surpasses that of the state-of-the-art adversarial purification method, DiffPure.
- Abstract(参考訳): 顔認証システムはかなりの利便性と高度な発達をもたらしたが、敵攻撃のような目立たない摂動に敏感なため信頼できないものになっている。
既存の防御は、様々な攻撃アルゴリズムやアダプティブアタックやセキュリティ強化のための妥協精度に直面すると、しばしば弱点を示す。
これらの課題に対処するため、IWMF (Iterative Window Mean Filter) と呼ばれる新しい高効率な非深層学習画像フィルタを開発し、IWMFと拡散モデルを統合した新たな逆浄化フレームワークIWMF-Diffを提案した。
これらの手法は、ターゲットシステムのさらなる修正や再訓練を必要とせずに、対向的摂動を取り除くための前処理モジュールとして機能することができる。
提案手法は, 保存精度, セキュリティ向上, 各種脅威に対する汎用性, 適応攻撃に対する耐性の4つの重要な要件を満たすことを示す。
この性能は、最先端の敵対的浄化法であるDiffPureを上回ります。
関連論文リスト
- MMAD-Purify: A Precision-Optimized Framework for Efficient and Scalable Multi-Modal Attacks [21.227398434694724]
我々は,攻撃フレームワークの有効性を高めるために,精度最適化ノイズ予測器を組み込んだ革新的なフレームワークを導入する。
当社のフレームワークは,マルチモーダル攻撃に対する最先端のソリューションを提供し,レイテンシの低減を実現している。
本研究の枠組みは, 浄化防御に対する優れた伝達性と堅牢性を実現することを実証する。
論文 参考訳(メタデータ) (2024-10-17T23:52:39Z) - LightPure: Realtime Adversarial Image Purification for Mobile Devices Using Diffusion Models [1.6035624867835674]
本稿では,敵画像の清浄性を高める新しい方法であるLightPureを紹介する。
既存の浄化法の精度を向上し、スピードと計算効率を著しく向上させる。
以上の結果から,LightPureは既存のメソッドを最大10倍のレイテンシで上回ることができることがわかった。
論文 参考訳(メタデータ) (2024-08-31T03:45:57Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - RADAP: A Robust and Adaptive Defense Against Diverse Adversarial Patches
on Face Recognition [13.618387142029663]
ディープラーニングを利用した顔認識システムは、敵の攻撃に対して脆弱である。
多様な敵パッチに対する堅牢かつ適応的な防御機構であるRADAPを提案する。
RADAPの有効性を検証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2023-11-29T03:37:14Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - Towards Adversarial Purification using Denoising AutoEncoders [0.8701566919381223]
敵対的攻撃は、通常画像に対する微妙な摂動によってしばしば得られる。
本稿では,DAE(Denoising AutoEncoders)を利用したAPuDAEというフレームワークを提案する。
当社のフレームワークが、敵を浄化するベースラインメソッドに比較して、ほとんどの場合、優れたパフォーマンスを提供する方法を示します。
論文 参考訳(メタデータ) (2022-08-29T19:04:25Z) - Threat Model-Agnostic Adversarial Defense using Diffusion Models [14.603209216642034]
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
論文 参考訳(メタデータ) (2022-07-17T06:50:48Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。