論文の概要: Diffusion-GAN: Training GANs with Diffusion
- arxiv url: http://arxiv.org/abs/2206.02262v1
- Date: Sun, 5 Jun 2022 20:45:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 14:48:14.443714
- Title: Diffusion-GAN: Training GANs with Diffusion
- Title(参考訳): 拡散GAN:拡散を伴うGANの訓練
- Authors: Zhendong Wang, Huangjie Zheng, Pengcheng He, Weizhu Chen, Mingyuan
Zhou
- Abstract要約: 本稿では,識別器の入力にインスタンスノイズを注入するDiffusion-GANを提案する。
多様なデータセットに関する豊富な実験は、Diffusion-GANが安定的でデータ効率のよいGANトレーニングを提供できることを示している。
- 参考スコア(独自算出の注目度): 82.81693885590444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For stable training of generative adversarial networks (GANs), injecting
instance noise into the input of the discriminator is considered as a
theoretically sound solution, which, however, has not yet delivered on its
promise in practice. This paper introduces Diffusion-GAN that employs a
Gaussian mixture distribution, defined over all the diffusion steps of a
forward diffusion chain, to inject instance noise. A random sample from the
mixture, which is diffused from an observed or generated data, is fed as the
input to the discriminator. The generator is updated by backpropagating its
gradient through the forward diffusion chain, whose length is adaptively
adjusted to control the maximum noise-to-data ratio allowed at each training
step. Theoretical analysis verifies the soundness of the proposed
Diffusion-GAN, which provides model- and domain-agnostic differentiable
augmentation. A rich set of experiments on diverse datasets show that
Diffusion-GAN can provide stable and data-efficient GAN training, bringing
consistent performance improvement over strong GAN baselines for synthesizing
photo-realistic images.
- Abstract(参考訳): GAN(Generative Adversarial Network)の安定したトレーニングでは、判別器の入力にインスタンスノイズを注入することは理論的に健全な解であると考えられており、実際にはまだ実現されていない。
本稿では,前方拡散鎖のすべての拡散ステップ上で定義されるガウス混合分布を用いてインスタンスノイズを注入する拡散-ganを提案する。
観察または生成されたデータから拡散された混合物からのランダムサンプルを判別器への入力として供給する。
各トレーニングステップで許容される最大ノイズ対データ比を制御するために、長さを適応的に調整した前方拡散チェーンを介して勾配を逆伝搬することにより、発電機を更新する。
理論解析はモデルおよびドメインに依存しない微分拡張を提供する拡散GANの健全性を検証する。
多様なデータセットに関する豊富な実験により、Diffusion-GANは安定したデータ効率のGANトレーニングを提供し、フォトリアリスティック画像を合成するための強力なGANベースラインよりも一貫したパフォーマンス向上をもたらすことが示されている。
関連論文リスト
- Intention-aware Denoising Diffusion Model for Trajectory Prediction [14.524496560759555]
軌道予測は、特に衝突回避システムにおいて、自律運転において不可欠な要素である。
本稿では,拡散モデルを用いて将来の軌道の分布を生成することを提案する。
Intention-aware denoising Diffusion Model (IDM)を提案する。
提案手法は,SDDデータセットでは13.83ピクセル,ETH/UCYデータセットでは0.36メートルのFDEで,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-03-14T09:05:25Z) - Diffusion-TS: Interpretable Diffusion for General Time Series Generation [6.639630994040322]
Diffusion-TSは、高品質な時系列サンプルを生成する新しい拡散ベースのフレームワークである。
各拡散ステップのノイズの代わりにサンプルを直接再構成するようにモデルを訓練し、フーリエに基づく損失項を組み合わせた。
その結果,Diffusion-TSは時系列の様々な現実的解析において最先端の結果が得られることがわかった。
論文 参考訳(メタデータ) (2024-03-04T05:39:23Z) - Theoretical Insights for Diffusion Guidance: A Case Study for Gaussian
Mixture Models [59.331993845831946]
拡散モデルは、所望の特性に向けてサンプル生成を操るために、スコア関数にタスク固有の情報を注入することの恩恵を受ける。
本稿では,ガウス混合モデルの文脈における拡散モデルに対する誘導の影響を理解するための最初の理論的研究を提供する。
論文 参考訳(メタデータ) (2024-03-03T23:15:48Z) - Improving and Unifying Discrete&Continuous-time Discrete Denoising
Diffusion [41.03548068279262]
離散拡散のためのより正確で容易に最適なトレーニングを可能にする変分下界の数学的単純化について述べる。
本稿では, 精密かつ高速なサンプリングが可能な後方復調法と, 離散時間および連続時間離散拡散のエレガントな統一法を導出する。
論文 参考訳(メタデータ) (2024-02-06T04:42:36Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - DiffusionNER: Boundary Diffusion for Named Entity Recognition [70.69102755044663]
DiffusionNERは、エンティティ認識タスクをバウンダリデノナイズ拡散プロセスとして定義する。
提案された境界変性拡散過程は、進行的な微細化と物質の動的サンプリングを可能にする。
複数のフラットなNERデータセットとネストされたNERデータセットの実験では、DiffusionNERが従来の最先端モデルと同等あるいはそれ以上のパフォーマンスを達成したことが示されている。
論文 参考訳(メタデータ) (2023-05-22T17:56:12Z) - Where to Diffuse, How to Diffuse, and How to Get Back: Automated
Learning for Multivariate Diffusions [22.04182099405728]
拡散に基づく生成モデル(DBGM)は、ターゲット雑音分布に摂動データを変換し、この推論拡散過程を逆にしてサンプルを生成する。
補助変数の数に対して、低いバウンドを最大化する方法を示す。
次に,特定対象雑音分布の拡散をパラメータ化する方法を示す。
論文 参考訳(メタデータ) (2023-02-14T18:57:04Z) - Truncated Diffusion Probabilistic Models and Diffusion-based Adversarial
Auto-Encoders [137.1060633388405]
拡散に基づく生成モデルは、逆拡散連鎖を推論してデータを生成する方法を学ぶ。
我々は、データが純粋なランダムノイズになるまで、より高速で安価にノイズを付加するアプローチを提案する。
提案手法は,拡散過程と学習可能な暗黙的前処理の両方によって付与された逆自動エンコーダとしてキャスト可能であることを示す。
論文 参考訳(メタデータ) (2022-02-19T20:18:49Z) - Non Gaussian Denoising Diffusion Models [91.22679787578438]
ガンマ分布からのノイズは、画像および音声生成のための改善された結果をもたらすことを示す。
また,拡散過程におけるガウス雑音の混合を用いることで,単一分布に基づく拡散過程における性能が向上することを示す。
論文 参考訳(メタデータ) (2021-06-14T16:42:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。