論文の概要: Robustifying Diffusion-Denoised Smoothing Against Covariate Shift
- arxiv url: http://arxiv.org/abs/2509.10913v1
- Date: Sat, 13 Sep 2025 17:27:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.838239
- Title: Robustifying Diffusion-Denoised Smoothing Against Covariate Shift
- Title(参考訳): 共変量シフトに対するロバスト化拡散型平滑化
- Authors: Ali Hedayatnia, Mostafa Tavassolipour, Babak Nadjar Araabi, Abdol-Hossein Vahabie,
- Abstract要約: 本稿では,デノナイズ拡散モデルの付加雑音に着目した新しい対向目的関数を提案する。
本手法は,3つの標準分類ベンチマークにおいて,認証精度を大幅に向上させる。
- 参考スコア(独自算出の注目度): 3.2010481260411834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Randomized smoothing is a well-established method for achieving certified robustness against l2-adversarial perturbations. By incorporating a denoiser before the base classifier, pretrained classifiers can be seamlessly integrated into randomized smoothing without significant performance degradation. Among existing methods, Diffusion Denoised Smoothing - where a pretrained denoising diffusion model serves as the denoiser - has produced state-of-the-art results. However, we show that employing a denoising diffusion model introduces a covariate shift via misestimation of the added noise, ultimately degrading the smoothed classifier's performance. To address this issue, we propose a novel adversarial objective function focused on the added noise of the denoising diffusion model. This approach is inspired by our understanding of the origin of the covariate shift. Our goal is to train the base classifier to ensure it is robust against the covariate shift introduced by the denoiser. Our method significantly improves certified accuracy across three standard classification benchmarks - MNIST, CIFAR-10, and ImageNet - achieving new state-of-the-art performance in l2-adversarial perturbations. Our implementation is publicly available at https://github.com/ahedayat/Robustifying-DDS-Against-Covariate-Shift
- Abstract(参考訳): ランダムな平滑化は、l2-逆の摂動に対して証明された堅牢性を達成するための確立された方法である。
基本分類器の前にデノイザを組み込むことにより、事前訓練された分類器を、大幅な性能劣化を伴わずに、ランダム化された平滑化にシームレスに統合することができる。
既存の方法の中では、Diffusion Denoized Smoothing - 事前訓練されたデノナイズ拡散モデルがデノナイザとして機能する - は、最先端の結果を生み出している。
しかし, 劣化拡散モデルを用いることで, 付加雑音の誤推定による共変量シフトが生じ, 最終的にスムーズな分類器の性能が低下することを示す。
この問題に対処するために,デノナイズ拡散モデルの付加雑音に着目した新しい対向目的関数を提案する。
このアプローチは、共変量シフトの起源の理解から着想を得たものです。
我々の目標は、デノイザが導入した共変量シフトに対して堅牢であることを保証するために、ベース分類器を訓練することです。
提案手法は, MNIST, CIFAR-10, ImageNetの3つの標準分類ベンチマークにおいて, l2-adversarial perturbation における新しい最先端性能を実現するために, 精度を著しく向上させる。
私たちの実装はhttps://github.com/ahedayat/Robustifying-DDS-Against-Covariate-Shiftで公開されています。
関連論文リスト
- Multi-scale Diffusion Denoised Smoothing [79.95360025953931]
ランダムな平滑化は、大規模モデルに敵対的ロバスト性を提供する、いくつかの具体的なアプローチの1つになっている。
本報告では, 分割平滑化におけるロバスト性と精度との現在のトレードオフに対処するスケーラブルな手法を提案する。
提案手法と拡散微細調整を併用したマルチスケール平滑化手法により,高騒音レベルで高い信頼性のロバスト性が得られることを示す。
論文 参考訳(メタデータ) (2023-10-25T17:11:21Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。