論文の概要: PCM : Picard Consistency Model for Fast Parallel Sampling of Diffusion Models
- arxiv url: http://arxiv.org/abs/2503.19731v1
- Date: Tue, 25 Mar 2025 14:59:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:55:09.980304
- Title: PCM : Picard Consistency Model for Fast Parallel Sampling of Diffusion Models
- Title(参考訳): PCM : 拡散モデルの高速並列サンプリングのためのピカード整合性モデル
- Authors: Junhyuk So, Jiwoong Shin, Chaeyeon Jang, Eunhyeok Park,
- Abstract要約: 拡散モデルは シーケンシャルデノナイジングプロセスにより 遅い生成速度に直面します
本稿では, 並列化方式であるPicard Consistency Model (PCM)を提案する。
PCMはシーケンシャルサンプリングで最大2.71倍のスピードアップを実現し、様々なタスクでPicardのイテレーションで1.77倍のスピードアップを実現している。
- 参考スコア(独自算出の注目度): 6.729215090658651
- License:
- Abstract: Recently, diffusion models have achieved significant advances in vision, text, and robotics. However, they still face slow generation speeds due to sequential denoising processes. To address this, a parallel sampling method based on Picard iteration was introduced, effectively reducing sequential steps while ensuring exact convergence to the original output. Nonetheless, Picard iteration does not guarantee faster convergence, which can still result in slow generation in practice. In this work, we propose a new parallelization scheme, the Picard Consistency Model (PCM), which significantly reduces the number of generation steps in Picard iteration. Inspired by the consistency model, PCM is directly trained to predict the fixed-point solution, or the final output, at any stage of the convergence trajectory. Additionally, we introduce a new concept called model switching, which addresses PCM's limitations and ensures exact convergence. Extensive experiments demonstrate that PCM achieves up to a 2.71x speedup over sequential sampling and a 1.77x speedup over Picard iteration across various tasks, including image generation and robotic control.
- Abstract(参考訳): 近年、拡散モデルは視覚、テキスト、ロボット工学において大きな進歩を遂げている。
しかし、シーケンシャルなデノナイジングプロセスのため、生成速度は依然として遅い。
これを解決するために、Picard繰り返しに基づく並列サンプリング手法を導入し、元の出力への正確な収束を確保しつつ、シーケンシャルなステップを効果的に削減した。
それでも、Picardのイテレーションはより高速な収束を保証するものではない。
本研究では,新しい並列化手法であるPicard Consistency Model (PCM)を提案する。
整合性モデルにインスパイアされたPCMは、収束軌道の任意の段階において、固定点解または最終的な出力を予測するために直接訓練される。
さらに,PCMの限界に対処し,正確な収束を保証するモデルスイッチングという新しい概念を導入する。
大規模な実験では、PCMはシーケンシャルサンプリングよりも2.71倍のスピードアップを達成し、画像生成やロボット制御を含む様々なタスクにわたるPicardイテレーションよりも1.77倍のスピードアップを実現している。
関連論文リスト
- Self-Refining Diffusion Samplers: Enabling Parallelization via Parareal Iterations [53.180374639531145]
自己精製拡散サンプリング(SRDS)は、サンプル品質を維持し、追加の並列計算コストでレイテンシを向上させることができる。
微分方程式の並列時間積分法であるPararealアルゴリズムから着想を得た。
論文 参考訳(メタデータ) (2024-12-11T11:08:09Z) - Accelerating Diffusion Sampling with Optimized Time Steps [69.21208434350567]
拡散確率モデル(DPM)は高分解能画像合成において顕著な性能を示した。
彼らのサンプリング効率は、通常多くのサンプリングステップのため、依然として望まれている。
DPM用高次数値ODEソルバの最近の進歩により、サンプリングステップがはるかに少ない高品質な画像の生成が可能になった。
論文 参考訳(メタデータ) (2024-02-27T10:13:30Z) - Accelerating Parallel Sampling of Diffusion Models [25.347710690711562]
自己回帰過程を並列化することにより拡散モデルのサンプリングを高速化する新しい手法を提案する。
これらの手法を適用したParaTAAは、普遍的でトレーニング不要な並列サンプリングアルゴリズムである。
実験により、ParaTAAは一般的なシーケンシャルサンプリングアルゴリズムで要求される推論ステップを4$sim$14倍に削減できることを示した。
論文 参考訳(メタデータ) (2024-02-15T14:27:58Z) - SinSR: Diffusion-Based Image Super-Resolution in a Single Step [119.18813219518042]
拡散モデルに基づく超解像(SR)法は有望な結果を示す。
しかし、それらの実践的応用は、必要な推論ステップのかなりの数によって妨げられている。
本稿では,SinSRという単一ステップのSR生成を実現するための,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:21:29Z) - Latent Consistency Models: Synthesizing High-Resolution Images with
Few-Step Inference [60.32804641276217]
本稿では,LCM(Latent Consistency Models)を提案する。
高品質の768 x 768 24-step LCMは、トレーニングに32A100 GPU時間しかかからない。
また,画像データセットの微調整に適した新しいLCM法であるLCF(Latent Consistency Fine-tuning)についても紹介する。
論文 参考訳(メタデータ) (2023-10-06T17:11:58Z) - Parallel Sampling of Diffusion Models [76.3124029406809]
拡散モデルは強力な生成モデルであるが、サンプリングが遅い。
そこで本研究では,複数のステップを並列にdenoisingすることで,事前学習した拡散モデルのサンプリングを高速化するParaDiGMSを提案する。
論文 参考訳(メタデータ) (2023-05-25T17:59:42Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
我々は,拡散モデルのサンプリング過程を高速化するために,確率フロー微分方程式の効率的な解法であるニューラル演算子を用いる。
シーケンシャルな性質を持つ他の高速サンプリング手法と比較して、並列復号法を最初に提案する。
本稿では,CIFAR-10では3.78、ImageNet-64では7.83の最先端FIDを1モデル評価環境で達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。