論文の概要: What is Adversarial Training for Diffusion Models?
- arxiv url: http://arxiv.org/abs/2505.21742v1
- Date: Tue, 27 May 2025 20:32:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.279897
- Title: What is Adversarial Training for Diffusion Models?
- Title(参考訳): 拡散モデルにおける逆学習とは何か?
- Authors: Briglia Maria Rosaria, Mujtaba Hussain Mirza, Giuseppe Lisanti, Iacopo Masi,
- Abstract要約: 拡散モデル(DM)に対する対戦訓練(AT)は,分類器と根本的に異なることを示す。
ATは拡散流の滑らかさを強制し、異常値と破損したデータを改善する方法である。
我々は,低次元および高次元空間における既知の分布を持つ概念実証データセットを用いて,我々のアプローチを厳密に評価する。
- 参考スコア(独自算出の注目度): 4.71482540145286
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We answer the question in the title, showing that adversarial training (AT) for diffusion models (DMs) fundamentally differs from classifiers: while AT in classifiers enforces output invariance, AT in DMs requires equivariance to keep the diffusion process aligned with the data distribution. AT is a way to enforce smoothness in the diffusion flow, improving robustness to outliers and corrupted data. Unlike prior art, our method makes no assumptions about the noise model and integrates seamlessly into diffusion training by adding random noise, similar to randomized smoothing, or adversarial noise, akin to AT. This enables intrinsic capabilities such as handling noisy data, dealing with extreme variability such as outliers, preventing memorization, and improving robustness. We rigorously evaluate our approach with proof-of-concept datasets with known distributions in low- and high-dimensional space, thereby taking a perfect measure of errors; we further evaluate on standard benchmarks such as CIFAR-10, CelebA and LSUN Bedroom, showing strong performance under severe noise, data corruption, and iterative adversarial attacks.
- Abstract(参考訳): 我々は,拡散モデル (DM) に対する敵対的訓練 (AT) が分類器と根本的に異なることを示し, 分類器のATは出力不変性を強制するが, DMのATは拡散過程をデータ分布に整合させるために等価性を必要とする。
ATは拡散流の滑らかさを強制し、外れ値と破損したデータに対する堅牢性を向上させる方法である。
従来の手法とは異なり,本手法では雑音モデルを仮定せず,無作為な平滑化や逆方向の雑音のようなランダムな雑音を加えることで拡散訓練にシームレスに統合する。
これにより、ノイズの多いデータ処理、外れ値などの極端な変数処理、暗記の防止、堅牢性の向上といった本質的な機能が可能になる。
CIFAR-10, CelebA, LSUN Bedroomなどの標準ベンチマークでは, 強騒音, データ破損, 反復的敵攻撃の強い性能を示す。
関連論文リスト
- ADT: Tuning Diffusion Models with Adversarial Supervision [16.974169058917443]
拡散モデルは、真のデータ分布を近似するために前方ノイズ発生過程を反転させることで、優れた画像生成を実現している。
本稿では、最適化中の推論プロセスを刺激し、最終的な出力をトレーニングデータと整合させるために、Adrial Diffusion Tuning (ADT)を提案する。
ADTは、固定されたトレーニング済みのバックボーンと軽量なトレーニング可能なパラメータを備えたシアム-ネットワーク識別器を備えている。
論文 参考訳(メタデータ) (2025-04-15T17:37:50Z) - Improved Diffusion-based Generative Model with Better Adversarial Robustness [65.38540020916432]
拡散確率モデル(DPM)は、生成タスクにおいて大きな成功を収めた。
デノナイジングプロセスでは、入力データ分布はトレーニングと推論の段階によって異なる。
論文 参考訳(メタデータ) (2025-02-24T12:29:16Z) - Free Hunch: Denoiser Covariance Estimation for Diffusion Models Without Extra Costs [25.784316302130875]
ノイズのある観測値が与えられたクリーンデータの共分散は、拡散モデルのための多くのトレーニング不要誘導生成法において重要な量である。
学習データから自由な共分散情報と生成軌道の曲率を用いて,これらの問題を解決する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-10-15T00:23:09Z) - Struggle with Adversarial Defense? Try Diffusion [8.274506117450628]
アドリア攻撃は微妙な摂動を導入して誤分類を引き起こす。
拡散に基づく敵の訓練は、しばしば収束の課題と高い計算費用に遭遇する。
本稿では,これらの問題を克服するために,真性最大化拡散(TMDC)を提案する。
論文 参考訳(メタデータ) (2024-04-12T06:52:40Z) - Consistent Diffusion Meets Tweedie: Training Exact Ambient Diffusion Models with Noisy Data [74.2507346810066]
アンビエント拡散(アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散
本稿では,ノイズの多い学習データのみを考慮し,故障のない分布から確実にサンプルを採取する拡散モデルのトレーニングのための最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-20T14:22:12Z) - Semi-Implicit Denoising Diffusion Models (SIDDMs) [50.30163684539586]
Denoising Diffusion Probabilistic Models (DDPM)のような既存のモデルは、高品質で多様なサンプルを提供するが、本質的に多くの反復的なステップによって遅くなる。
暗黙的要因と明示的要因を一致させることにより、この問題に対処する新しいアプローチを導入する。
提案手法は拡散モデルに匹敵する生成性能と,少数のサンプリングステップを持つモデルに比較して非常に優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-21T18:49:22Z) - Diffusion-GAN: Training GANs with Diffusion [135.24433011977874]
GAN(Generative Adversarial Network)は、安定してトレーニングすることが難しい。
フォワード拡散チェーンを利用してインスタンスノイズを生成する新しいGANフレームワークであるDiffusion-GANを提案する。
我々は,Diffusion-GANにより,最先端のGANよりも高い安定性とデータ効率で,よりリアルな画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-06-05T20:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。