論文の概要: EVODiff: Entropy-aware Variance Optimized Diffusion Inference
- arxiv url: http://arxiv.org/abs/2509.26096v1
- Date: Tue, 30 Sep 2025 11:15:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.517391
- Title: EVODiff: Entropy-aware Variance Optimized Diffusion Inference
- Title(参考訳): EVODiff: Entropy-aware Variancetimized Diffusion Inference
- Authors: Shigui Li, Wei Chen, Delu Zeng,
- Abstract要約: 拡散モデル(DM)は画像生成において優れているが、遅い推論とDPM-rのようなトレーニング推論勾配に基づく解法に悩まされている。
本稿では,DMの推論過程に関する情報理論的視点を紹介する。
本稿では EVODiff と呼ばれる DM の生成過程に対して,エントロピーを考慮した分散最適化手法を提案する。
- 参考スコア(独自算出の注目度): 10.822027937695886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models (DMs) excel in image generation, but suffer from slow inference and the training-inference discrepancies. Although gradient-based solvers like DPM-Solver accelerate the denoising inference, they lack theoretical foundations in information transmission efficiency. In this work, we introduce an information-theoretic perspective on the inference processes of DMs, revealing that successful denoising fundamentally reduces conditional entropy in reverse transitions. This principle leads to our key insights into the inference processes: (1) data prediction parameterization outperforms its noise counterpart, and (2) optimizing conditional variance offers a reference-free way to minimize both transition and reconstruction errors. Based on these insights, we propose an entropy-aware variance optimized method for the generative process of DMs, called EVODiff, which systematically reduces uncertainty by optimizing conditional entropy during denoising. Extensive experiments on DMs validate our insights and demonstrate that our method significantly and consistently outperforms state-of-the-art (SOTA) gradient-based solvers. For example, compared to the DPM-Solver++, EVODiff reduces the reconstruction error by up to 45.5\% (FID improves from 5.10 to 2.78) at 10 function evaluations (NFE) on CIFAR-10, cuts the NFE cost by 25\% (from 20 to 15 NFE) for high-quality samples on ImageNet-256, and improves text-to-image generation while reducing artifacts. Code is available at https://github.com/ShiguiLi/EVODiff.
- Abstract(参考訳): 拡散モデル(DM)は画像生成において優れているが、遅い推論と訓練と推論の相違に悩まされている。
DPM-Solverのような勾配に基づく解法はデノイング推論を加速するが、情報伝達効率の理論的基礎は欠如している。
本研究では,DMの推論過程に関する情報理論的視点を導入し,逆遷移における条件エントロピーを根本的に減少させることを示す。
この原理は,(1)データ予測パラメータ化がノイズ特性を上回ること,(2)条件分散の最適化は,遷移と復元の誤りを最小化するための参照フリーな方法である。
これらの知見に基づいて, EVODiff と呼ばれる DM 生成過程のエントロピーを考慮した分散最適化手法を提案し, 脱臭時の条件エントロピーを最適化することにより, 不確実性を系統的に低減する。
DMに関する大規模な実験は、我々の洞察を検証し、我々の手法が最先端(SOTA)勾配解法より著しく優れ、一貫して優れていることを実証する。
例えば、DPM-Solver++と比較して、EVODiff は CIFAR-10 上の 10 個の関数評価 (NFE) において 45.5 % (FID は 5.10 から 2.78 に改善) の再構成誤差を削減し、ImageNet-256 上の高品質なサンプルに対して NFE のコストを 25 % (20 から 15 NFE) 削減し、アーティファクトを削減しながらテキスト・画像生成を改善する。
コードはhttps://github.com/ShiguiLi/EVODiff.comで入手できる。
関連論文リスト
- Diffusion Models for Solving Inverse Problems via Posterior Sampling with Piecewise Guidance [52.705112811734566]
断片的なガイダンススキームを用いて,逆問題を解決するための新しい拡散型フレームワークが導入された。
提案手法は問題に依存しず,様々な逆問題に容易に適応できる。
このフレームワークは, (4時間), (8時間) の超分解能タスクに対して, (23%), (24%) および (24%) の無作為マスクを塗布する場合の (25%) の推論時間を短縮する。
論文 参考訳(メタデータ) (2025-07-22T19:35:14Z) - Noise Conditional Variational Score Distillation [60.38982038894823]
騒音条件変化スコア蒸留(NCVSD)は, 予混合拡散モデルから生成消音剤を蒸留する新しい方法である。
この知見を変分スコア蒸留フレームワークに組み込むことで、生成的デノイザのスケーラブルな学習を可能にする。
論文 参考訳(メタデータ) (2025-06-11T06:01:39Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - PFDiff: Training-Free Acceleration of Diffusion Models Combining Past and Future Scores [4.595421654683656]
拡散確率モデル(DPM)は画像生成において顕著な可能性を示している。
既存のほとんどのソリューションは、高速ODEソルバを提案することでサンプリングプロセスを加速する。
我々は、既存の高速ODEソルバを少ないNFEで動作させることができる新しいトレーニングフリーかつタイムステップスキッピング戦略であるPFDiffを提案する。
論文 参考訳(メタデータ) (2024-08-16T16:12:44Z) - BlindDiff: Empowering Degradation Modelling in Diffusion Models for Blind Image Super-Resolution [52.47005445345593]
BlindDiff は SISR のブラインド劣化に対処するための DM ベースのブラインドSR 手法である。
BlindDiffはMAPベースの最適化をDMにシームレスに統合する。
合成データセットと実世界のデータセットの両方の実験は、BlindDiffが最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2024-03-15T11:21:34Z) - DiffEnc: Variational Diffusion with a Learned Encoder [14.045374947755922]
拡散過程にデータと深度に依存した平均関数を導入し,拡散損失を改良した。
提案するフレームワークであるDiffEncは,CIFAR-10の確率を統計的に有意に向上させる。
論文 参考訳(メタデータ) (2023-10-30T17:54:36Z) - Fast Diffusion Model [122.36693015093041]
拡散モデル(DM)は、複雑なデータ分布を捉える能力を持つ様々な分野に採用されている。
本稿では,DM最適化の観点から,高速拡散モデル (FDM) を提案する。
論文 参考訳(メタデータ) (2023-06-12T09:38:04Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - Entropy-driven Sampling and Training Scheme for Conditional Diffusion
Generation [16.13197951857033]
Denoising Diffusion Probabilistic Model (DDPM)は、事前ノイズから実データへの柔軟な条件付き画像生成を可能にする。
しかし、分類器が高次構造でのみ不完全生成画像を容易に判別できるため、勾配は早期に消失する傾向にある。
この問題に対処するための2つの視点から、単純だが効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-23T04:10:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。