論文の概要: Diffusion-GAN: Training GANs with Diffusion
- arxiv url: http://arxiv.org/abs/2206.02262v1
- Date: Sun, 5 Jun 2022 20:45:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 14:48:14.443714
- Title: Diffusion-GAN: Training GANs with Diffusion
- Title(参考訳): 拡散GAN:拡散を伴うGANの訓練
- Authors: Zhendong Wang, Huangjie Zheng, Pengcheng He, Weizhu Chen, Mingyuan
Zhou
- Abstract要約: 本稿では,識別器の入力にインスタンスノイズを注入するDiffusion-GANを提案する。
多様なデータセットに関する豊富な実験は、Diffusion-GANが安定的でデータ効率のよいGANトレーニングを提供できることを示している。
- 参考スコア(独自算出の注目度): 82.81693885590444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For stable training of generative adversarial networks (GANs), injecting
instance noise into the input of the discriminator is considered as a
theoretically sound solution, which, however, has not yet delivered on its
promise in practice. This paper introduces Diffusion-GAN that employs a
Gaussian mixture distribution, defined over all the diffusion steps of a
forward diffusion chain, to inject instance noise. A random sample from the
mixture, which is diffused from an observed or generated data, is fed as the
input to the discriminator. The generator is updated by backpropagating its
gradient through the forward diffusion chain, whose length is adaptively
adjusted to control the maximum noise-to-data ratio allowed at each training
step. Theoretical analysis verifies the soundness of the proposed
Diffusion-GAN, which provides model- and domain-agnostic differentiable
augmentation. A rich set of experiments on diverse datasets show that
Diffusion-GAN can provide stable and data-efficient GAN training, bringing
consistent performance improvement over strong GAN baselines for synthesizing
photo-realistic images.
- Abstract(参考訳): GAN(Generative Adversarial Network)の安定したトレーニングでは、判別器の入力にインスタンスノイズを注入することは理論的に健全な解であると考えられており、実際にはまだ実現されていない。
本稿では,前方拡散鎖のすべての拡散ステップ上で定義されるガウス混合分布を用いてインスタンスノイズを注入する拡散-ganを提案する。
観察または生成されたデータから拡散された混合物からのランダムサンプルを判別器への入力として供給する。
各トレーニングステップで許容される最大ノイズ対データ比を制御するために、長さを適応的に調整した前方拡散チェーンを介して勾配を逆伝搬することにより、発電機を更新する。
理論解析はモデルおよびドメインに依存しない微分拡張を提供する拡散GANの健全性を検証する。
多様なデータセットに関する豊富な実験により、Diffusion-GANは安定したデータ効率のGANトレーニングを提供し、フォトリアリスティック画像を合成するための強力なGANベースラインよりも一貫したパフォーマンス向上をもたらすことが示されている。
関連論文リスト
- Where to Diffuse, How to Diffuse, and How to Get Back: Automated
Learning for Multivariate Diffusions [22.04182099405728]
拡散に基づく生成モデル(DBGM)は、ターゲット雑音分布に摂動データを変換し、この推論拡散過程を逆にしてサンプルを生成する。
補助変数の数に対して、低いバウンドを最大化する方法を示す。
次に,特定対象雑音分布の拡散をパラメータ化する方法を示す。
論文 参考訳(メタデータ) (2023-02-14T18:57:04Z) - Diffusion Model Based Posterior Sampling for Noisy Linear Inverse
Problems [6.066320781596792]
雑音線形測定から未知の信号を再構成するための教師なし汎用サンプリング手法を提案する。
具体的には、未知信号の先行は、1つの事前学習拡散モデル(DM)によって暗黙的にモデル化される
後方サンプリングでは、正確な雑音摂動確率スコアの難易度に対処するため、単純で効果的な擬似雑音摂動スコアを導入する。
論文 参考訳(メタデータ) (2022-11-20T01:09:49Z) - DensePure: Understanding Diffusion Models towards Adversarial Robustness [110.84015494617528]
拡散モデルの特性を解析し,それらが証明された堅牢性を高める条件を確立する。
事前訓練されたモデル(すなわち分類器)の信頼性向上を目的とした新しいDensePure法を提案する。
このロバストな領域は多重凸集合の和であり、以前の研究で特定されたロバストな領域よりもはるかに大きい可能性が示されている。
論文 参考訳(メタデータ) (2022-11-01T08:18:07Z) - Unifying Diffusion Models' Latent Space, with Applications to
CycleDiffusion and Guidance [95.12230117950232]
関係領域で独立に訓練された2つの拡散モデルから共通潜時空間が現れることを示す。
テキスト・画像拡散モデルにCycleDiffusionを適用することで、大規模なテキスト・画像拡散モデルがゼロショット画像・画像拡散エディタとして使用できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:53:52Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z) - On Analyzing Generative and Denoising Capabilities of Diffusion-based
Deep Generative Models [18.018935233383935]
拡散に基づくDeep Generative Models (DDGM)は、生成モデルにおける最先端のパフォーマンスを提供する。
後方拡散過程において, 少量のノイズがどのように変換されるかを検討する。
論文 参考訳(メタデータ) (2022-05-31T19:29:27Z) - Flexible Amortized Variational Inference in qBOLD MRI [56.4324135502282]
データから酸素抽出率(OEF)と脱酸素血液量(DBV)をより明瞭に決定する。
既存の推論手法では、DBVを過大評価しながら非常にノイズの多い、過小評価されたEFマップが得られる傾向にある。
本研究は, OEFとDBVの可算分布を推定できる確率論的機械学習手法について述べる。
論文 参考訳(メタデータ) (2022-03-11T10:47:16Z) - Truncated Diffusion Probabilistic Models [84.3235981545673]
拡散確率モデルは、前方拡散過程を反転させるために逆マルコフ拡散連鎖を推論することにより、データを生成する方法を学ぶ。
本稿では, ランダムノイズに対するデータ要求を廃止し, 前方拡散チェーンを切断することを提案する。
提案手法は, 生成性能と所要の逆拡散ステップ数の観点から, 非乱拡散確率モデルに対して一貫した改善をもたらすことを示す。
論文 参考訳(メタデータ) (2022-02-19T20:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。