論文の概要: Non Gaussian Denoising Diffusion Models
- arxiv url: http://arxiv.org/abs/2106.07582v1
- Date: Mon, 14 Jun 2021 16:42:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 19:36:35.246341
- Title: Non Gaussian Denoising Diffusion Models
- Title(参考訳): 非ガウス分解拡散モデル
- Authors: Eliya Nachmani, Robin San Roman, Lior Wolf
- Abstract要約: ガンマ分布からのノイズは、画像および音声生成のための改善された結果をもたらすことを示す。
また,拡散過程におけるガウス雑音の混合を用いることで,単一分布に基づく拡散過程における性能が向上することを示す。
- 参考スコア(独自算出の注目度): 91.22679787578438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative diffusion processes are an emerging and effective tool for image
and speech generation. In the existing methods, the underline noise
distribution of the diffusion process is Gaussian noise. However, fitting
distributions with more degrees of freedom, could help the performance of such
generative models. In this work, we investigate other types of noise
distribution for the diffusion process. Specifically, we show that noise from
Gamma distribution provides improved results for image and speech generation.
Moreover, we show that using a mixture of Gaussian noise variables in the
diffusion process improves the performance over a diffusion process that is
based on a single distribution. Our approach preserves the ability to
efficiently sample state in the training diffusion process while using Gamma
noise and a mixture of noise.
- Abstract(参考訳): 生成拡散プロセスは、画像および音声生成のための新しく効果的なツールである。
既存手法では拡散過程の下線雑音分布はガウス雑音である。
しかし、分布をより多くの自由度に適合させることで、そのような生成モデルの性能を高めることができる。
本研究では拡散過程における他の種類のノイズ分布について検討する。
具体的には,ガンマ分布からの雑音が画像および音声生成に改善をもたらすことを示す。
さらに, 拡散過程におけるガウス雑音変数の混合を用いることで, 単一分布に基づく拡散過程よりも性能が向上することを示す。
提案手法は,ガンマノイズと混合雑音を用いて,トレーニング拡散過程の状態を効率的にサンプリングする能力を保持する。
関連論文リスト
- Immiscible Diffusion: Accelerating Diffusion Training with Noise Assignment [56.609042046176555]
準最適雑音データマッピングは拡散モデルの遅い訓練につながる。
物理学における不和性現象からインスピレーションを得て,不和性拡散を提案する。
我々のアプローチは極めて単純で、各画像の拡散可能な領域を制限するために1行のコードしか必要としない。
論文 参考訳(メタデータ) (2024-06-18T06:20:42Z) - Diffusion Gaussian Mixture Audio Denoise [23.760755498636943]
本稿では拡散モデルとガウス混合モデルに基づくデノナイズモデルであるDiffGMMモデルを提案する。
まず1D-U-Netを用いて特徴を抽出し,ガウス混合モデルのパラメータを推定する線形層を訓練する。
推定ノイズからノイズ信号を連続的に減算してクリーンオーディオ信号を出力する。
論文 参考訳(メタデータ) (2024-06-13T14:18:10Z) - Blue noise for diffusion models [50.99852321110366]
本稿では,画像内および画像間の相関雑音を考慮した拡散モデルを提案する。
我々のフレームワークは、勾配流を改善するために、1つのミニバッチ内に画像間の相関を導入することができる。
本手法を用いて,各種データセットの質的,定量的な評価を行う。
論文 参考訳(メタデータ) (2024-02-07T14:59:25Z) - An Analysis of the Variance of Diffusion-based Speech Enhancement [15.736484513462973]
分散のスケールが音声強調性能の主要なパラメータであることを示す。
より大きな分散はノイズ減衰を増大させ、計算フットプリントを低減できることを示す。
論文 参考訳(メタデータ) (2024-02-01T17:46:19Z) - Diffusion Models With Learned Adaptive Noise [12.530583016267768]
画像間で異なる速度で雑音を印加する学習拡散過程を提案する。
MuLAN は CIFAR-10 と ImageNet の密度推定の最先端を新たに設定する。
論文 参考訳(メタデータ) (2023-12-20T18:00:16Z) - Diffusion-GAN: Training GANs with Diffusion [135.24433011977874]
GAN(Generative Adversarial Network)は、安定してトレーニングすることが難しい。
フォワード拡散チェーンを利用してインスタンスノイズを生成する新しいGANフレームワークであるDiffusion-GANを提案する。
我々は,Diffusion-GANにより,最先端のGANよりも高い安定性とデータ効率で,よりリアルな画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-06-05T20:45:01Z) - Truncated Diffusion Probabilistic Models and Diffusion-based Adversarial
Auto-Encoders [137.1060633388405]
拡散に基づく生成モデルは、逆拡散連鎖を推論してデータを生成する方法を学ぶ。
我々は、データが純粋なランダムノイズになるまで、より高速で安価にノイズを付加するアプローチを提案する。
提案手法は,拡散過程と学習可能な暗黙的前処理の両方によって付与された逆自動エンコーダとしてキャスト可能であることを示す。
論文 参考訳(メタデータ) (2022-02-19T20:18:49Z) - Denoising Diffusion Gamma Models [91.22679787578438]
Denoising Diffusion Gamma Model (DDGM)を導入し、ガンマ分布からのノイズが画像および音声生成に改善をもたらすことを示す。
提案手法は,ガンマノイズを用いてトレーニング拡散過程の状態を効率的にサンプリングする能力を保持する。
論文 参考訳(メタデータ) (2021-10-10T10:46:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。