論文の概要: Immiscible Diffusion: Accelerating Diffusion Training with Noise Assignment
- arxiv url: http://arxiv.org/abs/2406.12303v1
- Date: Tue, 18 Jun 2024 06:20:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 20:35:42.115330
- Title: Immiscible Diffusion: Accelerating Diffusion Training with Noise Assignment
- Title(参考訳): イミューシブル・ディフュージョン:ノイズアサインによる拡散訓練の高速化
- Authors: Yiheng Li, Heyang Jiang, Akio Kodaira, Masayoshi Tomizuka, Kurt Keutzer, Chenfeng Xu,
- Abstract要約: 現在の方法では、各画像がノイズ空間全体に拡散し、ノイズ層内の各点で全ての画像が混合される。
Inmiscible Diffusionを提案する。これはノイズデータマッピングのランダムな混合を改善するためのシンプルで効果的な方法である。
我々のアプローチは極めて単純で、各画像の拡散可能な領域を制限するために1行のコードしか必要としない。
- 参考スコア(独自算出の注目度): 56.609042046176555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we point out suboptimal noise-data mapping leads to slow training of diffusion models. During diffusion training, current methods diffuse each image across the entire noise space, resulting in a mixture of all images at every point in the noise layer. We emphasize that this random mixture of noise-data mapping complicates the optimization of the denoising function in diffusion models. Drawing inspiration from the immiscible phenomenon in physics, we propose Immiscible Diffusion, a simple and effective method to improve the random mixture of noise-data mapping. In physics, miscibility can vary according to various intermolecular forces. Thus, immiscibility means that the mixing of the molecular sources is distinguishable. Inspired by this, we propose an assignment-then-diffusion training strategy. Specifically, prior to diffusing the image data into noise, we assign diffusion target noise for the image data by minimizing the total image-noise pair distance in a mini-batch. The assignment functions analogously to external forces to separate the diffuse-able areas of images, thus mitigating the inherent difficulties in diffusion training. Our approach is remarkably simple, requiring only one line of code to restrict the diffuse-able area for each image while preserving the Gaussian distribution of noise. This ensures that each image is projected only to nearby noise. To address the high complexity of the assignment algorithm, we employ a quantized-assignment method to reduce the computational overhead to a negligible level. Experiments demonstrate that our method achieve up to 3x faster training for consistency models and DDIM on the CIFAR dataset, and up to 1.3x faster on CelebA datasets for consistency models. Besides, we conduct thorough analysis about the Immiscible Diffusion, which sheds lights on how it improves diffusion training speed while improving the fidelity.
- Abstract(参考訳): 本稿では,最適な雑音データマッピングが拡散モデルの遅い訓練につながることを指摘する。
拡散訓練中、現在の手法はノイズ空間全体にわたって各画像を拡散させ、ノイズ層内の各点で全ての画像が混合される。
このランダムな混合ノイズデータマッピングは拡散モデルにおけるデノナイジング関数の最適化を複雑にする。
物理における不可解な現象からインスピレーションを得たImmiscible Diffusionは、ノイズデータマッピングのランダムな混合を改善するためのシンプルで効果的な方法である。
物理学では、様々な分子間力によって不明瞭さが変化する。
したがって、分子源の混合は区別可能である。
そこで本研究では,代入型拡散訓練戦略を提案する。
具体的には、画像データをノイズに拡散する前に、ミニバッチ内の全画像-雑音対距離を最小化することにより、画像データに対して拡散目標ノイズを割り当てる。
代入関数は、画像の拡散可能な領域を分離する外部力と類似して機能し、拡散訓練における固有の困難を緩和する。
我々のアプローチは極めて単純であり、ガウス分布を保ちながら、各画像の拡散可能な領域を制限するために1行のコードしか必要としない。
これにより、各画像は近傍の雑音にのみ投影される。
代入アルゴリズムの複雑さに対処するため,計算オーバーヘッドを無視できるレベルに減らすために,量子化代入法を用いる。
CIFARデータセットでの一貫性モデルとDDIMのトレーニングを最大3倍高速化し,一貫性モデルのCelebAデータセットの最大1.3倍高速化した。
さらに, 拡散訓練速度の向上を図り, 忠実度の向上を図っている。
関連論文リスト
- Diffusion Priors for Variational Likelihood Estimation and Image Denoising [10.548018200066858]
本稿では,現実の雑音に対処するために,逆拡散過程における適応的確率推定とMAP推定を提案する。
実世界の多様なデータセットの実験と分析により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-10-23T02:52:53Z) - NoiseDiffusion: Correcting Noise for Image Interpolation with Diffusion Models beyond Spherical Linear Interpolation [86.7260950382448]
画像の妥当性を補正する新しい手法としてノイズ拡散法を提案する。
NoiseDiffusionはノイズの多い画像空間内で動作し、これらのノイズの多い画像に生画像を注入することで、情報損失の課題に対処する。
論文 参考訳(メタデータ) (2024-03-13T12:32:25Z) - Blue noise for diffusion models [50.99852321110366]
本稿では,画像内および画像間の相関雑音を考慮した拡散モデルを提案する。
我々のフレームワークは、勾配流を改善するために、1つのミニバッチ内に画像間の相関を導入することができる。
本手法を用いて,各種データセットの質的,定量的な評価を行う。
論文 参考訳(メタデータ) (2024-02-07T14:59:25Z) - Diffusion Models With Learned Adaptive Noise [12.530583016267768]
画像間で異なる速度で雑音を印加する学習拡散過程を提案する。
MuLAN は CIFAR-10 と ImageNet の密度推定の最先端を新たに設定する。
論文 参考訳(メタデータ) (2023-12-20T18:00:16Z) - Progressive Deblurring of Diffusion Models for Coarse-to-Fine Image
Synthesis [39.671396431940224]
拡散モデルは、徐々にノイズを取り除き、増幅信号を増幅することにより、画像合成において顕著な結果を示した。
本稿では,画像の粗大な合成方法を提案する。
実験の結果,提案手法はLSUNの寝室や教会のデータセットにおいて,従来のFID法よりも優れていた。
論文 参考訳(メタデータ) (2022-07-16T15:00:21Z) - Diffusion-GAN: Training GANs with Diffusion [135.24433011977874]
GAN(Generative Adversarial Network)は、安定してトレーニングすることが難しい。
フォワード拡散チェーンを利用してインスタンスノイズを生成する新しいGANフレームワークであるDiffusion-GANを提案する。
我々は,Diffusion-GANにより,最先端のGANよりも高い安定性とデータ効率で,よりリアルな画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-06-05T20:45:01Z) - Denoising Diffusion Gamma Models [91.22679787578438]
Denoising Diffusion Gamma Model (DDGM)を導入し、ガンマ分布からのノイズが画像および音声生成に改善をもたらすことを示す。
提案手法は,ガンマノイズを用いてトレーニング拡散過程の状態を効率的にサンプリングする能力を保持する。
論文 参考訳(メタデータ) (2021-10-10T10:46:31Z) - Non Gaussian Denoising Diffusion Models [91.22679787578438]
ガンマ分布からのノイズは、画像および音声生成のための改善された結果をもたらすことを示す。
また,拡散過程におけるガウス雑音の混合を用いることで,単一分布に基づく拡散過程における性能が向上することを示す。
論文 参考訳(メタデータ) (2021-06-14T16:42:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。