論文の概要: PurSAMERE: Reliable Adversarial Purification via Sharpness-Aware Minimization of Expected Reconstruction Error
- arxiv url: http://arxiv.org/abs/2602.06269v1
- Date: Fri, 06 Feb 2026 00:06:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.162119
- Title: PurSAMERE: Reliable Adversarial Purification via Sharpness-Aware Minimization of Expected Reconstruction Error
- Title(参考訳): PurSAMERE: シャープネスによる信頼性の高い対向浄化 : 期待される再構成誤差の最小化
- Authors: Vinh Hoang, Sebastian Krumscheid, Holger Rauhut, Raúl Tempone,
- Abstract要約: 本稿では, 対向ロバスト性を改善するための新しい決定論的浄化法を提案する。
提案手法は, 提案する再設計誤差を最小限に抑えるために, 周辺地域を探索する。
我々は, 強い決定論的ホワイトボックス攻撃下での最先端手法に対して, 対角的堅牢性が顕著に向上したことを示す。
- 参考スコア(独自算出の注目度): 3.9306877728266425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel deterministic purification method to improve adversarial robustness by mapping a potentially adversarial sample toward a nearby sample that lies close to a mode of the data distribution, where classifiers are more reliable. We design the method to be deterministic to ensure reliable test accuracy and to prevent the degradation of effective robustness observed in stochastic purification approaches when the adversary has full knowledge of the system and its randomness. We employ a score model trained by minimizing the expected reconstruction error of noise-corrupted data, thereby learning the structural characteristics of the input data distribution. Given a potentially adversarial input, the method searches within its local neighborhood for a purified sample that minimizes the expected reconstruction error under noise corruption and then feeds this purified sample to the classifier. During purification, sharpness-aware minimization is used to guide the purified samples toward flat regions of the expected reconstruction error landscape, thereby enhancing robustness. We further show that, as the noise level decreases, minimizing the expected reconstruction error biases the purified sample toward local maximizers of the Gaussian-smoothed density; under additional local assumptions on the score model, we prove recovery of a local maximizer in the small-noise limit. Experimental results demonstrate significant gains in adversarial robustness over state-of-the-art methods under strong deterministic white-box attacks.
- Abstract(参考訳): 分類器の信頼性が高いデータ分布のモードに近い近傍のサンプルに対して,潜在的対向サンプルをマッピングすることで,対向ロバスト性を向上させるための新たな決定論的浄化法を提案する。
本手法は, 確率論的浄化手法において, システムとそのランダム性について十分な知識を持つ場合の, 信頼性の高いテスト精度を確保し, 有効ロバスト性の劣化を防止するために, 決定論的に設計する。
ノイズ破損したデータの予測再構成誤差を最小限に抑え、入力データ分布の構造的特性を学習することで学習したスコアモデルを用いる。
潜在的に敵対的な入力が与えられた場合、この手法は、騒音汚損下での予測再構成誤差を最小限に抑える浄化サンプルを局所的に探索し、その精製サンプルを分類器に供給する。
浄化中、シャープネスを意識した最小化を用いて、精製された試料を予測された復元誤差景観の平坦な領域へ誘導し、堅牢性を高める。
さらに,ノイズレベルが低下するにつれて,正規化サンプルをガウス平滑化密度の局所的な最大値に対して最小化することが示され,スコアモデルに対する追加の局所的な仮定の下で,小雑音限界における局所的な最大値の回復が証明される。
実験結果から, 強い決定論的ホワイトボックス攻撃下での最先端手法に対する対角的ロバスト性は有意な向上を示した。
関連論文リスト
- Adversarial Purification by Consistency-aware Latent Space Optimization on Data Manifolds [48.37843602248313]
ディープニューラルネットワーク(DNN)は、クリーンデータに知覚不能な摂動を加えることで作られた敵のサンプルに対して脆弱であり、誤った危険な予測につながる可能性がある。
本稿では、事前学習された一貫性モデルの潜在空間内のベクトルを最適化し、クリーンなデータを復元するためのサンプルを生成する、一貫性モデルに基づく適応的パーフィケーション(CMAP)を提案する。
CMAPは、高い自然な精度を維持しながら、強力な敵攻撃に対する堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2024-12-11T14:14:02Z) - Classifier Guidance Enhances Diffusion-based Adversarial Purification by Preserving Predictive Information [75.36597470578724]
敵の浄化は、敵の攻撃からニューラルネットワークを守るための有望なアプローチの1つである。
分類器決定境界から遠ざかって, 清浄するgUided Purification (COUP)アルゴリズムを提案する。
実験結果から, COUPは強力な攻撃法でより優れた対向的堅牢性が得られることが示された。
論文 参考訳(メタデータ) (2024-08-12T02:48:00Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Certified $\ell_2$ Attribution Robustness via Uniformly Smoothed Attributions [20.487079380753876]
本研究では,ある空間から一様にサンプリングされた雑音によってバニラ属性を増大させる一様平滑化手法を提案する。
攻撃領域内の全ての摂動に対して、摂動試料の均一なスムーズな属性と非摂動試料とのコサイン類似性を低くすることが保証された。
論文 参考訳(メタデータ) (2024-05-10T09:56:02Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Denoising diffusion models for out-of-distribution detection [2.113925122479677]
我々は,確率拡散モデル(DDPM)を自己エンコーダの復号化として活用する。
DDPMを用いてノイズレベルの範囲の入力を再構成し,結果の多次元再構成誤差を用いてアウト・オブ・ディストリビューション入力を分類する。
論文 参考訳(メタデータ) (2022-11-14T20:35:11Z) - Learning Randomly Perturbed Structured Predictors for Direct Loss
Minimization [18.981576950505442]
直接損失最小化は、構造化ラベル空間上の予測子を学習するための一般的なアプローチである。
構造化予測において,学習したスコア関数とランダム化雑音とのバランスが良くなることを示す。
論文 参考訳(メタデータ) (2020-07-11T08:59:11Z) - Tomographic Auto-Encoder: Unsupervised Bayesian Recovery of Corrupted
Data [4.725669222165439]
破損したデータの教師なし回復のための新しい確率的手法を提案する。
劣化したサンプルの大規模なアンサンブルを考慮し,クリーンな値の正確な後部を復元する。
我々は、欠落した値とノイズの共通の設定の下で、データリカバリタスクでモデルをテストします。
論文 参考訳(メタデータ) (2020-06-30T16:18:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。