論文の概要: Immiscible Diffusion: Accelerating Diffusion Training with Noise Assignment
- arxiv url: http://arxiv.org/abs/2406.12303v2
- Date: Wed, 30 Oct 2024 23:30:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 16:57:31.237340
- Title: Immiscible Diffusion: Accelerating Diffusion Training with Noise Assignment
- Title(参考訳): イミューシブル・ディフュージョン:ノイズアサインによる拡散訓練の高速化
- Authors: Yiheng Li, Heyang Jiang, Akio Kodaira, Masayoshi Tomizuka, Kurt Keutzer, Chenfeng Xu,
- Abstract要約: 準最適雑音データマッピングは拡散モデルの遅い訓練につながる。
物理学における不和性現象からインスピレーションを得て,不和性拡散を提案する。
我々のアプローチは極めて単純で、各画像の拡散可能な領域を制限するために1行のコードしか必要としない。
- 参考スコア(独自算出の注目度): 56.609042046176555
- License:
- Abstract: In this paper, we point out that suboptimal noise-data mapping leads to slow training of diffusion models. During diffusion training, current methods diffuse each image across the entire noise space, resulting in a mixture of all images at every point in the noise layer. We emphasize that this random mixture of noise-data mapping complicates the optimization of the denoising function in diffusion models. Drawing inspiration from the immiscibility phenomenon in physics, we propose Immiscible Diffusion, a simple and effective method to improve the random mixture of noise-data mapping. In physics, miscibility can vary according to various intermolecular forces. Thus, immiscibility means that the mixing of molecular sources is distinguishable. Inspired by this concept, we propose an assignment-then-diffusion training strategy to achieve Immiscible Diffusion. As one example, prior to diffusing the image data into noise, we assign diffusion target noise for the image data by minimizing the total image-noise pair distance in a mini-batch. The assignment functions analogously to external forces to expel the diffuse-able areas of images, thus mitigating the inherent difficulties in diffusion training. Our approach is remarkably simple, requiring only one line of code to restrict the diffuse-able area for each image while preserving the Gaussian distribution of noise. In this way, each image is preferably projected to nearby noise. Experiments demonstrate that our method can achieve up to 3x faster training for unconditional Consistency Models on the CIFAR dataset, as well as for DDIM and Stable Diffusion on CelebA and ImageNet dataset, and in class-conditional training and fine-tuning. In addition, we conducted a thorough analysis that sheds light on how it improves diffusion training speed while improving fidelity. The code is available at https://yhli123.github.io/immiscible-diffusion
- Abstract(参考訳): 本稿では,最適な雑音データマッピングが拡散モデルの遅い訓練につながることを指摘する。
拡散訓練中、現在の手法はノイズ空間全体にわたって各画像を拡散させ、ノイズ層内の各点で全ての画像が混合される。
このランダムな混合ノイズデータマッピングは拡散モデルにおけるデノナイジング関数の最適化を複雑にする。
物理における不和性現象からインスピレーションを得たImmiscible Diffusionは、ノイズデータマッピングのランダムな混合を改善するためのシンプルで効果的な方法である。
物理学では、様々な分子間力によって不明瞭さが変化する。
したがって、分子源の混合は区別可能である。
この概念に着想を得て,不ミスシブル拡散を実現するための代入型拡散訓練戦略を提案する。
一例として、画像データをノイズに拡散する前に、ミニバッチにおける全画像-雑音対距離を最小化することにより、画像データに対して拡散目標ノイズを割り当てる。
代入関数は、画像の拡散可能な領域を排出する外部力と類似して機能し、拡散訓練における固有の困難を緩和する。
我々のアプローチは極めて単純であり、ガウス分布を保ちながら、各画像の拡散可能な領域を制限するために1行のコードしか必要としない。
このようにして、各画像が近傍の雑音に投影されることが好ましい。
実験により,CIFARデータセット上の非条件整合性モデルと,CelebAおよびImageNetデータセット上のDDIMおよび安定拡散,およびクラス条件トレーニングおよび微調整において,最大3倍高速なトレーニングを実現できることが示された。
さらに, 拡散訓練の速度を向上し, 忠実度を向上する方法について, 徹底的な解析を行った。
コードはhttps://yhli123.github.io/immiscible-diffusionで公開されている。
関連論文リスト
- Diffusion Priors for Variational Likelihood Estimation and Image Denoising [10.548018200066858]
本稿では,現実の雑音に対処するために,逆拡散過程における適応的確率推定とMAP推定を提案する。
実世界の多様なデータセットの実験と分析により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-10-23T02:52:53Z) - NoiseDiffusion: Correcting Noise for Image Interpolation with Diffusion Models beyond Spherical Linear Interpolation [86.7260950382448]
画像の妥当性を補正する新しい手法としてノイズ拡散法を提案する。
NoiseDiffusionはノイズの多い画像空間内で動作し、これらのノイズの多い画像に生画像を注入することで、情報損失の課題に対処する。
論文 参考訳(メタデータ) (2024-03-13T12:32:25Z) - Blue noise for diffusion models [50.99852321110366]
本稿では,画像内および画像間の相関雑音を考慮した拡散モデルを提案する。
我々のフレームワークは、勾配流を改善するために、1つのミニバッチ内に画像間の相関を導入することができる。
本手法を用いて,各種データセットの質的,定量的な評価を行う。
論文 参考訳(メタデータ) (2024-02-07T14:59:25Z) - Diffusion Models With Learned Adaptive Noise [12.530583016267768]
画像間で異なる速度で雑音を印加する学習拡散過程を提案する。
MuLAN は CIFAR-10 と ImageNet の密度推定の最先端を新たに設定する。
論文 参考訳(メタデータ) (2023-12-20T18:00:16Z) - Progressive Deblurring of Diffusion Models for Coarse-to-Fine Image
Synthesis [39.671396431940224]
拡散モデルは、徐々にノイズを取り除き、増幅信号を増幅することにより、画像合成において顕著な結果を示した。
本稿では,画像の粗大な合成方法を提案する。
実験の結果,提案手法はLSUNの寝室や教会のデータセットにおいて,従来のFID法よりも優れていた。
論文 参考訳(メタデータ) (2022-07-16T15:00:21Z) - Diffusion-GAN: Training GANs with Diffusion [135.24433011977874]
GAN(Generative Adversarial Network)は、安定してトレーニングすることが難しい。
フォワード拡散チェーンを利用してインスタンスノイズを生成する新しいGANフレームワークであるDiffusion-GANを提案する。
我々は,Diffusion-GANにより,最先端のGANよりも高い安定性とデータ効率で,よりリアルな画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-06-05T20:45:01Z) - Denoising Diffusion Gamma Models [91.22679787578438]
Denoising Diffusion Gamma Model (DDGM)を導入し、ガンマ分布からのノイズが画像および音声生成に改善をもたらすことを示す。
提案手法は,ガンマノイズを用いてトレーニング拡散過程の状態を効率的にサンプリングする能力を保持する。
論文 参考訳(メタデータ) (2021-10-10T10:46:31Z) - Non Gaussian Denoising Diffusion Models [91.22679787578438]
ガンマ分布からのノイズは、画像および音声生成のための改善された結果をもたらすことを示す。
また,拡散過程におけるガウス雑音の混合を用いることで,単一分布に基づく拡散過程における性能が向上することを示す。
論文 参考訳(メタデータ) (2021-06-14T16:42:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。