論文の概要: Diffusion Classifier Guidance for Non-robust Classifiers
- arxiv url: http://arxiv.org/abs/2507.00687v1
- Date: Tue, 01 Jul 2025 11:39:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.608233
- Title: Diffusion Classifier Guidance for Non-robust Classifiers
- Title(参考訳): 非ロバスト分類器のための拡散分類器誘導
- Authors: Philipp Vaeth, Dibyanshu Kumar, Benjamin Paassen, Magda Gregorová,
- Abstract要約: 拡散過程の雑音に対する一般,非ロバスト,ロバストな分類器の感度について検討した。
非ロバスト分類器はノイズ条件下で大きな精度劣化を示し、不安定な誘導勾配をもたらす。
本稿では,一段階の復号化画像予測を利用して最適化手法に着想を得た手法を提案する。
- 参考スコア(独自算出の注目度): 0.5999777817331317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classifier guidance is intended to steer a diffusion process such that a given classifier reliably recognizes the generated data point as a certain class. However, most classifier guidance approaches are restricted to robust classifiers, which were specifically trained on the noise of the diffusion forward process. We extend classifier guidance to work with general, non-robust, classifiers that were trained without noise. We analyze the sensitivity of both non-robust and robust classifiers to noise of the diffusion process on the standard CelebA data set, the specialized SportBalls data set and the high-dimensional real-world CelebA-HQ data set. Our findings reveal that non-robust classifiers exhibit significant accuracy degradation under noisy conditions, leading to unstable guidance gradients. To mitigate these issues, we propose a method that utilizes one-step denoised image predictions and implements stabilization techniques inspired by stochastic optimization methods, such as exponential moving averages. Experimental results demonstrate that our approach improves the stability of classifier guidance while maintaining sample diversity and visual quality. This work contributes to advancing conditional sampling techniques in generative models, enabling a broader range of classifiers to be used as guidance classifiers.
- Abstract(参考訳): 分類器ガイダンスは、与えられた分類器が生成したデータポイントを一定のクラスとして確実に認識するように拡散過程を操縦することを目的としている。
しかし、ほとんどの分類器誘導アプローチは、拡散前処理のノイズを特に訓練した頑健な分類器に限られている。
ノイズを伴わずに訓練された一般の非ロバストな分類器を扱うように分類器指導を拡張した。
本研究では,標準CelebAデータセット,特殊SportBallsデータセット,高次元実世界のCelebA-HQデータセットの拡散過程の雑音に対する非ロバストおよびロバストな分類器の感度を解析する。
以上の結果より, ノイズ条件下では非ローバスト分類器の精度が著しく低下し, 誘導勾配が不安定であった。
これらの問題を緩和するために,指数移動平均などの確率的最適化手法に着想を得て,一段階の復号化画像予測と安定化手法を実装した手法を提案する。
実験結果から,本手法は標本の多様性と視覚的品質を維持しつつ,分類器指導の安定性を向上させることが示された。
この研究は、生成モデルにおける条件付きサンプリング技術の進歩に寄与し、より広い範囲の分類器をガイダンス分類器として使用できるようにした。
関連論文リスト
- What is Adversarial Training for Diffusion Models? [4.71482540145286]
拡散モデル(DM)に対する対戦訓練(AT)は,分類器と根本的に異なることを示す。
ATは拡散流の滑らかさを強制し、異常値と破損したデータを改善する方法である。
我々は,低次元および高次元空間における既知の分布を持つ概念実証データセットを用いて,我々のアプローチを厳密に評価する。
論文 参考訳(メタデータ) (2025-05-27T20:32:28Z) - Studying Classifier(-Free) Guidance From a Classifier-Centric Perspective [100.54185280153753]
分類器なし誘導と分類器なし誘導の両方が,微分拡散軌道を決定境界から遠ざけることによって条件付き生成を実現することがわかった。
本研究では,フローマッチングをベースとした汎用的な後処理ステップを提案し,事前学習した復調拡散モデルに対する学習分布と実データ分布とのギャップを小さくする。
論文 参考訳(メタデータ) (2025-03-13T17:59:59Z) - GradCheck: Analyzing classifier guidance gradients for conditional diffusion sampling [42.50219822975012]
分類器からの勾配、特にノイズの多い画像で訓練されていないものは、しばしば不安定である。
本研究では、ロバストな分類器と非ロバストな分類器を比較した勾配解析を行い、複数の勾配安定化手法について検討した。
論文 参考訳(メタデータ) (2024-06-25T09:23:25Z) - Towards Better Certified Segmentation via Diffusion Models [62.21617614504225]
セグメンテーションモデルは敵の摂動に弱いため、医療や自動運転といった重要な意思決定システムでの使用を妨げます。
近年,理論的保証を得るためにガウス雑音を入力に加えることにより,セグメント化予測のランダム化が提案されている。
本稿では,ランダムな平滑化と拡散モデルを組み合わせたセグメンテーション予測の問題に対処する。
論文 参考訳(メタデータ) (2023-06-16T16:30:39Z) - DiffAug: A Diffuse-and-Denoise Augmentation for Training Robust Classifiers [6.131022957085439]
DiffAugは、画像分類器を訓練するためのシンプルで効率的な拡散に基づく拡張手法である。
与えられた例にDiffAugを適用すると、1つの前方拡散ステップと1つの逆拡散ステップからなる。
論文 参考訳(メタデータ) (2023-06-15T15:19:25Z) - Understanding Noise-Augmented Training for Randomized Smoothing [14.061680807550722]
ランダムスムーシング(Randomized smoothing)は、敵攻撃に対する証明可能な堅牢性を保証する技術である。
より強い分布仮定を作らずに、雑音増強の訓練を受けた予測者から利益を期待できないことを示す。
本分析は, ランダム化平滑化の実践的展開に直接的な意味を持つ。
論文 参考訳(メタデータ) (2023-05-08T14:46:34Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。