論文の概要: Image Diffusion Preview with Consistency Solver
- arxiv url: http://arxiv.org/abs/2512.13592v1
- Date: Mon, 15 Dec 2025 17:47:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.785343
- Title: Image Diffusion Preview with Consistency Solver
- Title(参考訳): Consistency Solverによる画像拡散プレビュー
- Authors: Fu-Yun Wang, Hao Zhou, Liangzhe Yuan, Sanghyun Woo, Boqing Gong, Bohyung Han, Ming-Hsuan Yang, Han Zhang, Yukun Zhu, Ting Liu, Long Zhao,
- Abstract要約: ユーザ評価のための予備出力を生成するために,高速かつ低ステップサンプリングを用いた新しいパラダイムであるDiffusion Previewを導入する。
既存のアクセラレーション手法では、トレーニング不要の解決器や訓練後の蒸留が高品質なプレビューを提供するのに苦労している。
強化学習による軽量で訓練可能な高次解法である一般線形多段法から導出した一貫性器を提案する。
- 参考スコア(独自算出の注目度): 86.95276270716477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The slow inference process of image diffusion models significantly degrades interactive user experiences. To address this, we introduce Diffusion Preview, a novel paradigm employing rapid, low-step sampling to generate preliminary outputs for user evaluation, deferring full-step refinement until the preview is deemed satisfactory. Existing acceleration methods, including training-free solvers and post-training distillation, struggle to deliver high-quality previews or ensure consistency between previews and final outputs. We propose ConsistencySolver derived from general linear multistep methods, a lightweight, trainable high-order solver optimized via Reinforcement Learning, that enhances preview quality and consistency. Experimental results demonstrate that ConsistencySolver significantly improves generation quality and consistency in low-step scenarios, making it ideal for efficient preview-and-refine workflows. Notably, it achieves FID scores on-par with Multistep DPM-Solver using 47% fewer steps, while outperforming distillation baselines. Furthermore, user studies indicate our approach reduces overall user interaction time by nearly 50% while maintaining generation quality. Code is available at https://github.com/G-U-N/consolver.
- Abstract(参考訳): 画像拡散モデルの遅い推論プロセスは、対話型ユーザエクスペリエンスを著しく劣化させる。
そこで本稿では,ユーザ評価のための予備出力を生成するために,高速で低段階のサンプリングを取り入れた新しいパラダイムであるDiffusion Previewを紹介し,プレビューが満足するまで全段階の洗練を遅らせる。
既存のアクセラレーション手法では、トレーニング不要のソルバや後処理の蒸留など、高品質なプレビューの提供や、プレビューと最終的なアウトプットの整合性の確保に苦慮している。
本稿では,Reinforcement Learningによって最適化された軽量で訓練可能な高次解法である一般線形多段法から導出した一貫性ソルバーを提案する。
実験結果から、ConsistencySolverは低ステップシナリオにおける生成品質と一貫性を大幅に改善し、効率的なプレビュー/リファインワークフローに最適であることが示された。
特にMultistep DPM-Solverと同等のFIDスコアを47%のステップで達成し、蒸留ベースラインを上回ります。
さらに,本手法は,生成品質を維持しつつ,ユーザ間のインタラクション時間を50%近く短縮することを示す。
コードはhttps://github.com/G-U-N/consolver.comで入手できる。
関連論文リスト
- GAS: Improving Discretization of Diffusion ODEs via Generalized Adversarial Solver [120.67680383929081]
ODEサンプルの単純なパラメータ化を導入し、追加のトレーニングトリックを必要とせず、既存のアプローチよりも品質が向上する。
さらに, 本来の蒸留損失と逆行訓練を組み合わせることで, 人工物が軽減され, 細部忠実度が向上する。
論文 参考訳(メタデータ) (2025-10-20T16:14:38Z) - Distilling Parallel Gradients for Fast ODE Solvers of Diffusion Models [53.087070073434845]
拡散モデル(DM)は、最先端の生成性能を達成したが、シーケンシャルなデノナイジング特性のため、高いサンプリング遅延に悩まされている。
既存のソルバベースの加速度法では、低レイテンシの予算で画像品質が劣化することが多い。
本稿では、各ODEステップに複数の並列勾配評価を組み込むことで、トランケーションエラーを軽減する新しいODEソルバであるEnsemble Parallel Direction Solutionrを提案する。
論文 参考訳(メタデータ) (2025-07-20T03:08:06Z) - DGSolver: Diffusion Generalist Solver with Universal Posterior Sampling for Image Restoration [49.16449955997501]
bfDGrは、普遍的な後続サンプリングを持つ拡散解法である。
コードとモデルはhttps://github.com/MiliLab/DGr.comから入手できる。
論文 参考訳(メタデータ) (2025-04-30T10:12:48Z) - Training-free Diffusion Acceleration with Bottleneck Sampling [37.9135035506567]
Bottleneck Samplingは、低解像度の事前処理を活用して、出力の忠実さを維持しながら計算オーバーヘッドを低減する、トレーニング不要のフレームワークである。
画像生成に最大3$times$、ビデオ生成に2.5$times$、標準のフル解像度サンプリングプロセスに匹敵する出力品質を維持しながら、推論を加速する。
論文 参考訳(メタデータ) (2025-03-24T17:59:02Z) - Towards More Accurate Diffusion Model Acceleration with A Timestep Tuner [112.99126045081046]
数千のデノナイジングステップを用いて画像を生成するために定式化された拡散モデルは通常、遅い推論速度に悩まされる。
最小コストで特定の区間に対してより正確な積分方向を求めるのに役立つtextbftimestep tunerを提案する。
実験により,我々のプラグイン設計を効率的に訓練し,様々な最先端加速度法の推論性能を向上できることが示された。
論文 参考訳(メタデータ) (2023-10-14T02:19:07Z) - Latent Consistency Models: Synthesizing High-Resolution Images with
Few-Step Inference [60.32804641276217]
本稿では,LCM(Latent Consistency Models)を提案する。
高品質の768 x 768 24-step LCMは、トレーニングに32A100 GPU時間しかかからない。
また,画像データセットの微調整に適した新しいLCM法であるLCF(Latent Consistency Fine-tuning)についても紹介する。
論文 参考訳(メタデータ) (2023-10-06T17:11:58Z) - Accelerating Diffusion-based Combinatorial Optimization Solvers by
Progressive Distillation [43.60874566377421]
本稿では, 脱臭過程において少ないステップで推算を高速化するために, プログレッシブ蒸留法を提案する。
実験結果から, 徐々に蒸留したモデルでは0.019%の性能低下を伴わず, 16倍の速度で推算できることがわかった。
論文 参考訳(メタデータ) (2023-08-12T21:25:24Z) - Accelerating Diffusion Sampling with Classifier-based Feature
Distillation [20.704675568555082]
N/2$-step の教師サンプルとN/2$-step の生徒サンプルの出力画像を段階的に整列させることにより, 高速サンプリングのためのプログレッシブ蒸留を提案する。
教師の特徴分布を,データセットに依存しない分類器を用いて抽出し,性能向上を図る。
CIFAR-10実験は, 高品質で高速なサンプリングを実現する上で, 提案手法の優位性を示した。
論文 参考訳(メタデータ) (2022-11-22T06:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。