論文の概要: Morse: Dual-Sampling for Lossless Acceleration of Diffusion Models
- arxiv url: http://arxiv.org/abs/2506.18251v1
- Date: Mon, 23 Jun 2025 02:43:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.827342
- Title: Morse: Dual-Sampling for Lossless Acceleration of Diffusion Models
- Title(参考訳): モース:拡散モデルの無損失加速のためのデュアルサンプリング
- Authors: Chao Li, Jiawei Fan, Anbang Yao,
- Abstract要約: 拡散モデルを損失なく加速するための二重サンプリングフレームワークであるMorseを提案する。
特にMorseには、DashとDotという2つのモデルがあり、互いに対話する。
DashとDotモデルの出力をタイムインターリーブ方式でチェーンすることで、Morseはフレキシブルに所望の画像生成性能を得るというメリットを示す。
- 参考スコア(独自算出の注目度): 14.618774364317053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present Morse, a simple dual-sampling framework for accelerating diffusion models losslessly. The key insight of Morse is to reformulate the iterative generation (from noise to data) process via taking advantage of fast jump sampling and adaptive residual feedback strategies. Specifically, Morse involves two models called Dash and Dot that interact with each other. The Dash model is just the pre-trained diffusion model of any type, but operates in a jump sampling regime, creating sufficient space for sampling efficiency improvement. The Dot model is significantly faster than the Dash model, which is learnt to generate residual feedback conditioned on the observations at the current jump sampling point on the trajectory of the Dash model, lifting the noise estimate to easily match the next-step estimate of the Dash model without jump sampling. By chaining the outputs of the Dash and Dot models run in a time-interleaved fashion, Morse exhibits the merit of flexibly attaining desired image generation performance while improving overall runtime efficiency. With our proposed weight sharing strategy between the Dash and Dot models, Morse is efficient for training and inference. Our method shows a lossless speedup of 1.78X to 3.31X on average over a wide range of sampling step budgets relative to 9 baseline diffusion models on 6 image generation tasks. Furthermore, we show that our method can be also generalized to improve the Latent Consistency Model (LCM-SDXL, which is already accelerated with consistency distillation technique) tailored for few-step text-to-image synthesis. The code and models are available at https://github.com/deep-optimization/Morse.
- Abstract(参考訳): 本稿では、拡散モデルを損失なく加速する単純な二重サンプリングフレームワークであるMorseを提案する。
Morseの重要な洞察は、高速ジャンプサンプリングと適応的残留フィードバック戦略を利用して、反復生成(ノイズからデータへの)プロセスを再構築することである。
特にMorseには、DashとDotという2つのモデルがあり、互いに対話する。
Dashモデルは、任意のタイプの事前訓練された拡散モデルであるが、ジャンプサンプリング方式で動作し、サンプリング効率を改善するのに十分な空間を作り出す。
DotモデルはDashモデルよりもはるかに高速で、Dashモデルの軌道上の現在のジャンプサンプリング地点で観測された残差フィードバックを学習し、ノイズ推定を引き上げ、ジャンプサンプリングなしでDashモデルの次のステップ推定に容易に一致するようにした。
DashとDotモデルのアウトプットをタイムインターリーブ形式で実行することで、Morse氏は、全体的な実行効率を改善しながら、望ましい画像生成性能を柔軟に達成するメリットを示している。
提案したDashモデルとDotモデル間の重み共有戦略により、Morseはトレーニングと推論に効率的である。
提案手法は,画像生成タスクにおける9つのベースライン拡散モデルに対して,幅広いサンプリングステップ予算に対して平均1.78Xから3.31Xのロスレススピードアップを示す。
さらに,本手法は,数段階のテキスト・ツー・イメージ合成に適したLCM-SDXL(LCM-SDXL)の改良にも応用可能であることを示す。
コードとモデルはhttps://github.com/deep-optimization/Morse.comで公開されている。
関連論文リスト
- Truncated Consistency Models [57.50243901368328]
トレーニング一貫性モデルは、PF ODE 軌道に沿ったすべての中間点を対応するエンドポイントにマッピングする学習を必要とする。
このトレーニングパラダイムが一貫性モデルの1ステップ生成性能を制限することを実証的に見出した。
整合性関数の新しいパラメータ化と2段階の訓練手順を提案し,時間外学習が崩壊することを防ぐ。
論文 参考訳(メタデータ) (2024-10-18T22:38:08Z) - A-SDM: Accelerating Stable Diffusion through Redundancy Removal and
Performance Optimization [54.113083217869516]
本研究ではまず,ネットワークの計算冗長性について検討する。
次に、モデルの冗長性ブロックをプルークし、ネットワーク性能を維持する。
第3に,計算集約型注意部を高速化するグローバル地域対話型注意(GRI)を提案する。
論文 参考訳(メタデータ) (2023-12-24T15:37:47Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
我々は,拡散モデルのサンプリング過程を高速化するために,確率フロー微分方程式の効率的な解法であるニューラル演算子を用いる。
シーケンシャルな性質を持つ他の高速サンプリング手法と比較して、並列復号法を最初に提案する。
本稿では,CIFAR-10では3.78、ImageNet-64では7.83の最先端FIDを1モデル評価環境で達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。