論文の概要: NatADiff: Adversarial Boundary Guidance for Natural Adversarial Diffusion
- arxiv url: http://arxiv.org/abs/2505.20934v1
- Date: Tue, 27 May 2025 09:23:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.542971
- Title: NatADiff: Adversarial Boundary Guidance for Natural Adversarial Diffusion
- Title(参考訳): NatADiff:自然対向拡散に対する対向境界ガイダンス
- Authors: Max Collins, Jordan Vice, Tim French, Ajmal Mian,
- Abstract要約: 敵対的なサンプルは「学習された多様体の不規則性」を深層学習モデルによって悪用し、誤分類を引き起こす。
そこで我々は,自然対向サンプルを生成するために,デノナイズ拡散を利用した対向サンプリング方式であるNatADiffを提案する。
NatADiffは、モデル間でより効果的に転送するだけでなく、自然に発生するテストタイムエラーに忠実に類似する逆のサンプルを生成する。
- 参考スコア(独自算出の注目度): 25.40185694215312
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial samples exploit irregularities in the manifold ``learned'' by deep learning models to cause misclassifications. The study of these adversarial samples provides insight into the features a model uses to classify inputs, which can be leveraged to improve robustness against future attacks. However, much of the existing literature focuses on constrained adversarial samples, which do not accurately reflect test-time errors encountered in real-world settings. To address this, we propose `NatADiff', an adversarial sampling scheme that leverages denoising diffusion to generate natural adversarial samples. Our approach is based on the observation that natural adversarial samples frequently contain structural elements from the adversarial class. Deep learning models can exploit these structural elements to shortcut the classification process, rather than learning to genuinely distinguish between classes. To leverage this behavior, we guide the diffusion trajectory towards the intersection of the true and adversarial classes, combining time-travel sampling with augmented classifier guidance to enhance attack transferability while preserving image fidelity. Our method achieves comparable attack success rates to current state-of-the-art techniques, while exhibiting significantly higher transferability across model architectures and better alignment with natural test-time errors as measured by FID. These results demonstrate that NatADiff produces adversarial samples that not only transfer more effectively across models, but more faithfully resemble naturally occurring test-time errors.
- Abstract(参考訳): 逆サンプルは、深層学習モデルによる多様体 '`learned'' の不規則性を利用して、誤分類を引き起こす。
これらの対立サンプルの研究は、モデルが入力を分類するために使用する特徴についての洞察を与え、将来の攻撃に対する堅牢性を改善するために利用することができる。
しかし、既存の文献の多くは、実世界の環境で遭遇したテストタイムエラーを正確に反映しない制約付き敵検体に焦点を当てている。
そこで本研究では, 自然対向サンプルを生成するために, 偏極拡散を利用した対向サンプリング方式「NatADiff」を提案する。
本研究のアプローチは,自然対数サンプルがしばしば対数クラスの構造的要素を含むという観察に基づいている。
ディープラーニングモデルは、クラスを真に区別することを学ぶのではなく、これらの構造的要素を利用して分類プロセスを短縮することができる。
画像の忠実さを保ちながら攻撃の伝達性を高めるため、時間トラバーサンプリングと拡張型分類器誘導を組み合わせることにより、真のクラスと敵対クラスの交差方向への拡散軌跡を導出する。
提案手法は,現在の最先端技術に匹敵する攻撃成功率を達成するとともに,モデルアーキテクチャ間での転送可能性も向上し,FIDによる自然なテスト時間誤差との整合性も向上する。
これらの結果は、NatADiffが、モデル間でより効果的に転送するだけでなく、自然に発生するテストタイムエラーに忠実に類似する敵対的なサンプルを生成することを示した。
関連論文リスト
- Adversarially Robust Deepfake Detection via Adversarial Feature Similarity Learning [0.0]
ディープフェイク技術は、デジタルコンテンツの信頼性を懸念し、効果的な検出方法の開発を必要としている。
敵は、検出モデルを騙して誤った出力を生成する、小さくて知覚できない摂動でディープフェイクビデオを操作できる。
本稿では,3つの基本的深い特徴学習パラダイムを統合したAFSL(Adversarial Feature similarity Learning)を紹介する。
論文 参考訳(メタデータ) (2024-02-06T11:35:05Z) - AFD: Mitigating Feature Gap for Adversarial Robustness by Feature Disentanglement [56.90364259986057]
逆方向の微調整法は、逆方向の訓練方法で事前訓練されたモデルを微調整することにより、逆方向の強靭性を高める。
本稿では,特定の潜伏する特徴を明示的にモデル化し,除去するためのアンタングルメントに基づくアプローチを提案する。
提案手法は,既存の対戦型微調整法や対戦型トレーニングベースラインを超越した手法である。
論文 参考訳(メタデータ) (2024-01-26T08:38:57Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Robust Deep Learning Models Against Semantic-Preserving Adversarial
Attack [3.7264705684737893]
ディープラーニングモデルは、小さな$l_p$-normの逆の摂動と、属性の観点からの自然な摂動によって騙される。
本稿では,SPA攻撃という新たな攻撃機構を提案する。
論文 参考訳(メタデータ) (2023-04-08T08:28:36Z) - Beyond Empirical Risk Minimization: Local Structure Preserving
Regularization for Improving Adversarial Robustness [28.853413482357634]
局所構造保存(LSP)正則化は、学習された埋め込み空間における入力空間の局所構造を保存することを目的としている。
本研究では,学習した埋め込み空間における入力空間の局所構造を保存することを目的とした,新しい局所構造保存(LSP)正規化を提案する。
論文 参考訳(メタデータ) (2023-03-29T17:18:58Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Improving Gradient-based Adversarial Training for Text Classification by
Contrastive Learning and Auto-Encoder [18.375585982984845]
我々は,モデルの訓練過程において,勾配に基づく敵攻撃を防御するモデルの能力の向上に焦点をあてる。
本稿では, CARL と RAR の2つの新しい対戦訓練手法を提案する。
実験により,提案した2つの手法は,テキスト分類データセットにおいて高いベースラインを達成していることが示された。
論文 参考訳(メタデータ) (2021-09-14T09:08:58Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。