論文の概要: ReDi: Efficient Learning-Free Diffusion Inference via Trajectory
Retrieval
- arxiv url: http://arxiv.org/abs/2302.02285v1
- Date: Sun, 5 Feb 2023 03:01:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 19:12:22.894917
- Title: ReDi: Efficient Learning-Free Diffusion Inference via Trajectory
Retrieval
- Title(参考訳): ReDi: 軌道探索による効率的な学習自由拡散推論
- Authors: Kexun Zhang, Xianjun Yang, William Yang Wang, Lei Li
- Abstract要約: ReDiは学習不要なRetrievalベースの拡散サンプリングフレームワークである。
ReDi はモデル推論効率を 2 倍高速化することを示した。
- 参考スコア(独自算出の注目度): 74.25860216286988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models show promising generation capability for a variety of data.
Despite their high generation quality, the inference for diffusion models is
still time-consuming due to the numerous sampling iterations required. To
accelerate the inference, we propose ReDi, a simple yet learning-free
Retrieval-based Diffusion sampling framework. From a precomputed knowledge
base, ReDi retrieves a trajectory similar to the partially generated trajectory
at an early stage of generation, skips a large portion of intermediate steps,
and continues sampling from a later step in the retrieved trajectory. We
theoretically prove that the generation performance of ReDi is guaranteed. Our
experiments demonstrate that ReDi improves the model inference efficiency by 2x
speedup. Furthermore, ReDi is able to generalize well in zero-shot cross-domain
image generation such as image stylization.
- Abstract(参考訳): 拡散モデルは様々なデータに対して有望な生成能力を示す。
高い世代品質にもかかわらず、多くのサンプリングイテレーションが必要なため、拡散モデルの推論は依然として時間がかかります。
推論を高速化するため,ReDiは単純だが学習不要なRetrievalベースの拡散サンプリングフレームワークである。
事前計算された知識ベースから、ReDiは生成初期に部分的に生成された軌跡に似た軌跡を検索し、中間ステップの大部分をスキップし、検索された軌跡の後半ステップからのサンプリングを継続する。
ReDiの生成性能が保証されていることを理論的に証明する。
実験の結果,ReDiはモデル推論効率を2倍高速化することがわかった。
さらに、ReDiは、画像スタイリングのようなゼロショットのクロスドメイン画像生成において、うまく一般化することができる。
関連論文リスト
- SinSR: Diffusion-Based Image Super-Resolution in a Single Step [119.18813219518042]
拡散モデルに基づく超解像(SR)法は有望な結果を示す。
しかし、それらの実践的応用は、必要な推論ステップのかなりの数によって妨げられている。
本稿では,SinSRという単一ステップのSR生成を実現するための,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:21:29Z) - Deep Equilibrium Diffusion Restoration with Parallel Sampling [127.31325974698993]
拡散に基づく画像復元法の多くは、HQイメージを段階的に復元するために長いシリアルサンプリングチェーンを必要とする。
拡散型IRモデルにおけるサンプリングチェーン全体をモデル化して解析解を導出する。
単イメージサンプリングを並列に行うことができ、トレーニングなしでHQイメージを復元することができます。
論文 参考訳(メタデータ) (2023-11-20T08:27:56Z) - DiffuSeq-v2: Bridging Discrete and Continuous Text Spaces for
Accelerated Seq2Seq Diffusion Models [58.450152413700586]
ガウス空間に基づく離散突然変異を再構成する学習において拡散モデルを容易にする軟吸収状態を導入する。
我々は、サンプリングプロセスの高速化のために、連続空間内で最先端のODEソルバを用いている。
提案手法は, トレーニング収束率を4倍に向上させ, 類似品質のサンプルを800倍高速に生成する。
論文 参考訳(メタデータ) (2023-10-09T15:29:10Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Exploring Continual Learning of Diffusion Models [24.061072903897664]
拡散モデルの連続学習(CL)特性を評価する。
我々は,拡散の時間経過にまたがる多様な行動を示す,忘れのダイナミクスに関する洞察を提供する。
論文 参考訳(メタデータ) (2023-03-27T15:52:14Z) - Towards performant and reliable undersampled MR reconstruction via
diffusion model sampling [67.73698021297022]
DiffuseReconは拡散モデルに基づく新しいMR再構成法である。
観測された信号に基づいて生成過程を導出する。
特定の加速因子に関する追加の訓練は必要としない。
論文 参考訳(メタデータ) (2022-03-08T02:25:38Z) - Come-Closer-Diffuse-Faster: Accelerating Conditional Diffusion Models
for Inverse Problems through Stochastic Contraction [31.61199061999173]
拡散モデルには重要な欠点がある。純粋なガウスノイズから画像を生成するために数千ステップの反復を必要とするため、サンプリングが本質的に遅い。
ガウスノイズから始めることは不要であることを示す。代わりに、より優れた初期化を伴う単一前方拡散から始めると、逆条件拡散におけるサンプリングステップの数を大幅に減少させる。
ComeCloser-DiffuseFaster (CCDF)と呼ばれる新しいサンプリング戦略は、逆問題に対する既存のフィードフォワードニューラルネットワークアプローチが拡散モデルと相乗的に組み合わせられる方法について、新たな洞察を明らかにしている。
論文 参考訳(メタデータ) (2021-12-09T04:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。