論文の概要: AdvAD: Exploring Non-Parametric Diffusion for Imperceptible Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2503.09124v1
- Date: Wed, 12 Mar 2025 07:22:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:39:48.409552
- Title: AdvAD: Exploring Non-Parametric Diffusion for Imperceptible Adversarial Attacks
- Title(参考訳): AdvAD: 知覚不能な敵攻撃に対する非パラメトリック拡散の探索
- Authors: Jin Li, Ziqiang He, Anwei Luo, Jian-Fang Hu, Z. Jane Wang, Xiangui Kang,
- Abstract要約: 知覚不能な敵攻撃は、入力データに知覚不能な摂動を加えることでDNNを騙すことを目的としている。
従来手法では、特定の設計された知覚に基づく損失や生成モデルの能力と共通の攻撃パラダイムを統合することにより、攻撃の非受容性を改善することが一般的であった。
本稿では、既存の攻撃パラダイムとは異なる新しいモデリングフレームワークAdvAD(Adversarial Attacks in Diffusion)を提案する。
- 参考スコア(独自算出の注目度): 24.401789411246874
- License:
- Abstract: Imperceptible adversarial attacks aim to fool DNNs by adding imperceptible perturbation to the input data. Previous methods typically improve the imperceptibility of attacks by integrating common attack paradigms with specifically designed perception-based losses or the capabilities of generative models. In this paper, we propose Adversarial Attacks in Diffusion (AdvAD), a novel modeling framework distinct from existing attack paradigms. AdvAD innovatively conceptualizes attacking as a non-parametric diffusion process by theoretically exploring basic modeling approach rather than using the denoising or generation abilities of regular diffusion models requiring neural networks. At each step, much subtler yet effective adversarial guidance is crafted using only the attacked model without any additional network, which gradually leads the end of diffusion process from the original image to a desired imperceptible adversarial example. Grounded in a solid theoretical foundation of the proposed non-parametric diffusion process, AdvAD achieves high attack efficacy and imperceptibility with intrinsically lower overall perturbation strength. Additionally, an enhanced version AdvAD-X is proposed to evaluate the extreme of our novel framework under an ideal scenario. Extensive experiments demonstrate the effectiveness of the proposed AdvAD and AdvAD-X. Compared with state-of-the-art imperceptible attacks, AdvAD achieves an average of 99.9$\%$ (+17.3$\%$) ASR with 1.34 (-0.97) $l_2$ distance, 49.74 (+4.76) PSNR and 0.9971 (+0.0043) SSIM against four prevalent DNNs with three different architectures on the ImageNet-compatible dataset. Code is available at https://github.com/XianguiKang/AdvAD.
- Abstract(参考訳): 知覚不能な敵攻撃は、入力データに知覚不能な摂動を加えることでDNNを騙すことを目的としている。
従来手法では、特定の設計された知覚に基づく損失や生成モデルの能力と共通の攻撃パラダイムを統合することにより、攻撃の非受容性を改善することが一般的であった。
本稿では,既存の攻撃パラダイムとは異なる新しいモデリングフレームワークであるAdvADを提案する。
AdvADは、ニューラルネットワークを必要とする正規拡散モデルのデノイングや生成能力を使用するのではなく、理論的に基本的なモデリングアプローチを探求することで、攻撃を非パラメトリック拡散プロセスとして革新的に概念化する。
各ステップにおいて、より微妙で効果的な敵方向誘導は、追加のネットワークを使わずに攻撃されたモデルのみを用いて作成され、元の画像から望ましくない敵方向の例への拡散プロセスの終了を徐々に導く。
提案した非パラメトリック拡散過程の理論的基礎として,AdvADは内在的に低い全体的な摂動強度で高い攻撃効果と非受容性を達成している。
さらに、理想的なシナリオの下で、新しいフレームワークの極端な部分を評価するために、拡張バージョンAdvAD-Xを提案する。
大規模な実験は、提案されたAdvADとAdvAD-Xの有効性を示す。
最先端の非受容攻撃と比較して、AdvADは平均99.9$\%$ (+17.3$\%$) ASR で 1.34 (-0.97) $l_2$ distance, 49.74 (+4.76) PSNR と 0.9971 (+0.0043) SSIM を、ImageNet互換データセット上で3つの異なるアーキテクチャを持つ4つのDNNに対して達成している。
コードはhttps://github.com/XianguiKang/AdvAD.comで入手できる。
関連論文リスト
- DiffAttack: Evasion Attacks Against Diffusion-Based Adversarial
Purification [63.65630243675792]
拡散に基づく浄化防御は拡散モデルを利用して、敵の例の人工摂動を除去する。
近年の研究では、先進的な攻撃でさえ、そのような防御を効果的に破壊できないことが示されている。
拡散型浄化防衛を効果的かつ効率的に行うための統合フレームワークDiffAttackを提案する。
論文 参考訳(メタデータ) (2023-10-27T15:17:50Z) - Universal Adversarial Defense in Remote Sensing Based on Pre-trained Denoising Diffusion Models [17.283914361697818]
深部ニューラルネットワーク(DNN)は、地球観測のための多数のAIアプリケーション(AI4EO)において重要なソリューションとして注目されている。
本稿では、リモートセンシング画像(UAD-RS)における新しいユニバーサル・ディフェンス・アプローチを提案する。
論文 参考訳(メタデータ) (2023-07-31T17:21:23Z) - AdvDiff: Generating Unrestricted Adversarial Examples using Diffusion Models [7.406040859734522]
制限のない敵攻撃は、深層学習モデルや敵防衛技術に深刻な脅威をもたらす。
以前の攻撃法は、しばしば生成モデルのサンプリングに投影された勾配(PGD)を直接注入する。
本稿では,拡散モデルを用いた非制限逆例を生成するAdvDiffと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T03:10:02Z) - Enhancing Adversarial Robustness via Score-Based Optimization [22.87882885963586]
敵対的攻撃は、わずかな摂動を導入することによって、ディープニューラルネットワーク分類器を誤認する可能性がある。
ScoreOptと呼ばれる新しい対向防御方式を導入し、テスト時に対向サンプルを最適化する。
実験の結果,本手法は性能とロバスト性の両方において,既存の敵防御よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-10T03:59:42Z) - Robust Classification via a Single Diffusion Model [37.46217654590878]
ロバスト拡散(英: Robust Diffusion、RDC)は、事前学習された拡散モデルから構築され、逆向きに堅牢な生成型分類器である。
RDCは75.67%で様々な$ell_infty$標準有界適応攻撃に対して、CIFAR-10で$epsilon_infty/255$で堅牢な精度を達成した。
論文 参考訳(メタデータ) (2023-05-24T15:25:19Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - AdvHaze: Adversarial Haze Attack [19.744435173861785]
現実世界の風景に共通する現象であるヘイズに基づく新たな敵対攻撃法を紹介します。
本手法は, 大気散乱モデルに基づく画像に, 高い現実性で, 潜在的に逆転するハゼを合成することができる。
提案手法は,高い成功率を達成し,ベースラインと異なる分類モデル間での転送性が向上することを示す。
論文 参考訳(メタデータ) (2021-04-28T09:52:25Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。