論文の概要: Sample-Specific Noise Injection For Diffusion-Based Adversarial Purification
- arxiv url: http://arxiv.org/abs/2506.06027v1
- Date: Fri, 06 Jun 2025 12:20:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.4692
- Title: Sample-Specific Noise Injection For Diffusion-Based Adversarial Purification
- Title(参考訳): 拡散型対向浄化のための試料特異的ノイズ注入
- Authors: Yuhao Sun, Jiacheng Zhang, Zesheng Ye, Chaowei Xiao, Feng Liu,
- Abstract要約: 拡散型浄化法 (DBP) は, サンプルから逆方向の雑音を除去することを目的としている。
入力サンプルにガウスノイズがどの程度注入されるかは、DBP法の成功の鍵となる。
SSNI(Sample-specific Score-aware Noise Injection)と呼ばれる新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 31.050852094415315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion-based purification (DBP) methods aim to remove adversarial noise from the input sample by first injecting Gaussian noise through a forward diffusion process, and then recovering the clean example through a reverse generative process. In the above process, how much Gaussian noise is injected to the input sample is key to the success of DBP methods, which is controlled by a constant noise level $t^*$ for all samples in existing methods. In this paper, we discover that an optimal $t^*$ for each sample indeed could be different. Intuitively, the cleaner a sample is, the less the noise it should be injected, and vice versa. Motivated by this finding, we propose a new framework, called Sample-specific Score-aware Noise Injection (SSNI). Specifically, SSNI uses a pre-trained score network to estimate how much a data point deviates from the clean data distribution (i.e., score norms). Then, based on the magnitude of score norms, SSNI applies a reweighting function to adaptively adjust $t^*$ for each sample, achieving sample-specific noise injections. Empirically, incorporating our framework with existing DBP methods results in a notable improvement in both accuracy and robustness on CIFAR-10 and ImageNet-1K, highlighting the necessity to allocate distinct noise levels to different samples in DBP methods. Our code is available at: https://github.com/tmlr-group/SSNI.
- Abstract(参考訳): 拡散型浄化法(DBP)は,まず前方拡散法によりガウスノイズを注入し,次に逆生成法によりクリーンサンプルを回収することにより,入力サンプルから逆雑音を除去することを目的としている。
以上のプロセスでは, ガウスノイズが入力サンプルにどの程度注入されるかがDBP法の成功の鍵であり, 既存の手法のすべてのサンプルに対して, 一定の雑音レベル$t^*$で制御される。
本稿では,各試料に対して最適な$t^*$が実際に異なることを明らかにする。
直感的には、サンプルのクリーナーは、注入すべきノイズが少ないほど、その逆である。
そこで本研究では,Sample-specific Score-aware Noise Injection (SSNI) と呼ばれる新しいフレームワークを提案する。
具体的には、SSNIはトレーニング済みのスコアネットワークを使用して、データポイントがクリーンなデータ分散(すなわちスコアノルム)からどれだけ逸脱するかを推定する。
そして、スコアノルムの大きさに基づいて、SSNIはサンプルごとに$t^*$を適応的に調整し、サンプル固有のノイズ注入を行う。
CIFAR-10 と ImageNet-1K の精度とロバスト性を両立させ,DBP の異なるサンプルに異なるノイズレベルを割り当てる必要性を強調した。
私たちのコードは、https://github.com/tmlr-group/SSNI.comで利用可能です。
関連論文リスト
- Detect and Correct: A Selective Noise Correction Method for Learning with Noisy Labels [14.577138753507203]
ノイズラベル(noisy labels)としても知られる偽アノテートサンプルは、ディープラーニングモデルの性能を著しく損なう可能性がある。
ノイズラベルを用いた学習には,大域的雑音推定とデータフィルタリングの2つのアプローチがある。
本手法は, 損失分布に基づいて, うるさいサンプルを同定する。
次に、ノイズとクリーンなサンプルを分離する選択プロセスを適用し、ノイズ遷移行列を学習してノイズのあるサンプルの損失を補正し、クリーンなデータは影響を受けないままにしておく。
論文 参考訳(メタデータ) (2025-05-19T16:49:27Z) - Noisy Test-Time Adaptation in Vision-Language Models [73.14136220844156]
テスト時間適応(TTA)は、テスト中のターゲットデータのみに依存することにより、ソースデータとターゲットデータの分散シフトに対処することを目的としている。
本稿では、ゼロショット方式で、テスト時にノイズのあるサンプルをターゲットとするデータにモデルを適応させることに焦点を当てたゼロショットノイズTTA(ZS-NTTA)を提案する。
本稿では, 冷凍機の出力を擬似ラベルとして利用し, ノイズ検出器の訓練を行う適応ノイズ検出器(AdaND)を提案する。
論文 参考訳(メタデータ) (2025-02-20T14:37:53Z) - Distributional Diffusion Models with Scoring Rules [83.38210785728994]
拡散モデルは高品質な合成データを生成する。
高品質な出力を生成するには、多くの離散化ステップが必要です。
クリーンデータサンプルの後部エム分布を学習し,サンプル生成を実現することを提案する。
論文 参考訳(メタデータ) (2025-02-04T16:59:03Z) - Random Sampling for Diffusion-based Adversarial Purification [21.401448516056686]
Denoising Diffusion Probabilistic Models (DDPMs) は敵の浄化において大きな注目を集めている。
Denoising Diffusion Implicit Model (DDIM) の安定性にインスパイアされ、ランダムサンプリングと呼ばれる反対のサンプリングスキームを提案する。
簡単に言えば、各拡散過程中にランダムノイズ空間からランダムサンプリングがサンプリングされ、DDPMとDDIMサンプリングは隣接するまたは元のノイズ空間から継続的にサンプリングされる。
論文 参考訳(メタデータ) (2024-11-28T07:04:09Z) - Regroup Median Loss for Combating Label Noise [19.51996047333779]
深層モデルトレーニングには、注釈付きデータの大規模なデータセットが必要である。
多数のサンプルを注釈付けすることが難しいため、誤ったアノテーションによるラベルノイズは避けられない。
ノイズのあるサンプルを選択する確率を低減し,ノイズの多いサンプルの損失を正すために,Regroup Median Loss (RML)を提案する。
論文 参考訳(メタデータ) (2023-12-11T10:19:55Z) - Negative Pre-aware for Noisy Cross-modal Matching [46.5591267410225]
雑音対応は認識と修正が難しいため,クロスモーダルノイズロバスト学習は難しい課題である。
本稿では,雑音の多い下流タスクに対する大規模視覚言語モデルファインタニングのための,否定的事前認識型クロスモーダルマッチングソリューションを提案する。
論文 参考訳(メタデータ) (2023-12-10T05:52:36Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Improved, Deterministic Smoothing for L1 Certified Robustness [119.86676998327864]
分割雑音を伴う非加法的決定論的平滑化法(dssn)を提案する。
一様加法平滑化とは対照的に、ssn認証は無作為なノイズコンポーネントを独立に必要としない。
これは、規範ベースの敵対的脅威モデルに対して決定論的「ランダム化平滑化」を提供する最初の仕事である。
論文 参考訳(メタデータ) (2021-03-17T21:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。