論文の概要: Improved Immiscible Diffusion: Accelerate Diffusion Training by Reducing Its Miscibility
- arxiv url: http://arxiv.org/abs/2505.18521v1
- Date: Sat, 24 May 2025 05:38:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.474517
- Title: Improved Immiscible Diffusion: Accelerate Diffusion Training by Reducing Its Miscibility
- Title(参考訳): 解離不能拡散の改善:解離性低下による解離促進訓練
- Authors: Yiheng Li, Feng Liang, Dan Kondratyuk, Masayoshi Tomizuka, Kurt Keutzer, Chenfeng Xu,
- Abstract要約: 不和がいかに軽視し、効率を向上するかを示す。
そこで本稿では,K-nearest neighbor (KNN) ノイズ選択や画像スケーリングなどの実装のファミリを提案する。
この研究は、今後の高効率拡散訓練研究の新たな方向性を確立する。
- 参考スコア(独自算出の注目度): 62.272571285823595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The substantial training cost of diffusion models hinders their deployment. Immiscible Diffusion recently showed that reducing diffusion trajectory mixing in the noise space via linear assignment accelerates training by simplifying denoising. To extend immiscible diffusion beyond the inefficient linear assignment under high batch sizes and high dimensions, we refine this concept to a broader miscibility reduction at any layer and by any implementation. Specifically, we empirically demonstrate the bijective nature of the denoising process with respect to immiscible diffusion, ensuring its preservation of generative diversity. Moreover, we provide thorough analysis and show step-by-step how immiscibility eases denoising and improves efficiency. Extending beyond linear assignment, we propose a family of implementations including K-nearest neighbor (KNN) noise selection and image scaling to reduce miscibility, achieving up to >4x faster training across diverse models and tasks including unconditional/conditional generation, image editing, and robotics planning. Furthermore, our analysis of immiscibility offers a novel perspective on how optimal transport (OT) enhances diffusion training. By identifying trajectory miscibility as a fundamental bottleneck, we believe this work establishes a potentially new direction for future research into high-efficiency diffusion training. The code is available at https://github.com/yhli123/Immiscible-Diffusion.
- Abstract(参考訳): 拡散モデルのかなりの訓練コストは、その展開を妨げる。
Inmiscible Diffusionは、線形代入による雑音空間における拡散軌道混合の低減が、騒音の簡易化による訓練を加速することを示した。
高いバッチサイズと高次元下での非効率線形代入を超えて非ミスシブル拡散を拡大するために、我々はこの概念を、どんな層でも、どんな実装でも、より広いミスシビリティ低減に洗練する。
具体的には,不和性拡散に関する認知過程の客観的性質を実証的に実証し,生成多様性の維持を確実にする。
さらに、我々は徹底的な分析を行い、不和の緩和と効率の向上をステップバイステップで示す。
そこで本稿では,K-nearest neighbor(KNN)ノイズ選択や画像スケーリングなどの実装のファミリを提案し,非条件/条件生成,画像編集,ロボット計画など,さまざまなモデルやタスクに対する最大4倍高速なトレーニングを実現する。
さらに, 最適輸送(OT)が拡散訓練をいかに促進するか, 新たな視点を提供する。
軌跡ミスシビリティを基本的なボトルネックとすることで、この研究は、高効率拡散訓練の今後の研究の新たな方向性を確立する可能性があると信じている。
コードはhttps://github.com/yhli123/Immiscible-Diffusionで公開されている。
関連論文リスト
- One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - Diffusion-ES: Gradient-free Planning with Diffusion for Autonomous Driving and Zero-Shot Instruction Following [21.81411085058986]
Reward-gradient guided denoisingは、微分可能報酬関数と拡散モデルによって捕捉されたデータ分布下での確率の両方を最大化する軌道を生成する。
そこで我々は,勾配のない最適化と軌道デノゲーションを組み合わせたDiffusionESを提案する。
DiffusionESは、自動運転のための確立されたクローズドループ計画ベンチマークであるnuPlan上で、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-02-09T17:18:33Z) - Manifold Preserving Guided Diffusion [121.97907811212123]
条件付き画像生成は、コスト、一般化可能性、タスク固有のトレーニングの必要性といった課題に直面している。
トレーニング不要な条件生成フレームワークであるManifold Preserving Guided Diffusion (MPGD)を提案する。
論文 参考訳(メタデータ) (2023-11-28T02:08:06Z) - Global Structure-Aware Diffusion Process for Low-Light Image Enhancement [64.69154776202694]
本稿では,低照度画像強調問題に対処する拡散型フレームワークについて検討する。
我々は、その固有のODE-軌道の正規化を提唱する。
実験により,提案手法は低照度化において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-10-26T17:01:52Z) - Diffusion-GAN: Training GANs with Diffusion [135.24433011977874]
GAN(Generative Adversarial Network)は、安定してトレーニングすることが難しい。
フォワード拡散チェーンを利用してインスタンスノイズを生成する新しいGANフレームワークであるDiffusion-GANを提案する。
我々は,Diffusion-GANにより,最先端のGANよりも高い安定性とデータ効率で,よりリアルな画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-06-05T20:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。