論文の概要: It Takes Two to Tango: Two Parallel Samplers Improve Quality in Diffusion Models for Limited Steps
- arxiv url: http://arxiv.org/abs/2510.21802v1
- Date: Mon, 20 Oct 2025 23:57:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.530184
- Title: It Takes Two to Tango: Two Parallel Samplers Improve Quality in Diffusion Models for Limited Steps
- Title(参考訳): タンゴに要する2つのパラレルサンプリングは、限られたステップでの拡散モデルの品質を改善する
- Authors: Pedro Cisneros-Velarde,
- Abstract要約: 2つの並列プロセッサまたはサンプリング装置は、サンプル画像の品質を向上させることができる。
その結果,2つのサンプルからの情報の統合により,サンプルの品質が低下することが判明した。
- 参考スコア(独自算出の注目度): 5.91402820967386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the situation where we have a limited number of denoising steps, i.e., of evaluations of a diffusion model. We show that two parallel processors or samplers under such limitation can improve the quality of the sampled image. Particularly, the two samplers make denoising steps at successive times, and their information is appropriately integrated in the latent image. Remarkably, our method is simple both conceptually and to implement: it is plug-&-play, model agnostic, and does not require any additional fine-tuning or external models. We test our method with both automated and human evaluations for different diffusion models. We also show that a naive integration of the information from the two samplers lowers sample quality. Finally, we find that adding more parallel samplers does not necessarily improve sample quality.
- Abstract(参考訳): 本研究では,拡散モデルの評価において,限定的な段階,すなわち限定的な段階が存在する状況について考察する。
このような制限下での2つの並列プロセッサまたはサンプリング器は、サンプル画像の品質を向上させることができることを示す。
特に、2つのサンプリング器は連続してデノナイジングステップを行い、それらの情報を潜画像に適切に統合する。
プラグイン・アンド・プレイであり、モデル非依存であり、追加の微調整や外部モデルを必要としない。
異なる拡散モデルに対する自動評価と人的評価を併用して,本手法を検証した。
また,2つのサンプルからの情報の統合により,サンプルの品質が低下することを示す。
最後に、より並列なサンプルラを追加することで、必ずしもサンプルの品質が向上するとは限らないことを発見した。
関連論文リスト
- Learnable Sampler Distillation for Discrete Diffusion Models [10.278761444472186]
離散拡散モデルのための高速かつ高忠実なサンプリング器を訓練するための新しい手法である学習可能なサンプリング器蒸留法(LSD)を提案する。
提案手法は既存のDDM試料より優れており,サンプリング精度が著しく向上し,サンプリング工程も大幅に減少した。
論文 参考訳(メタデータ) (2025-09-24T10:16:31Z) - Self-Refining Diffusion Samplers: Enabling Parallelization via Parareal Iterations [53.180374639531145]
自己精製拡散サンプリング(SRDS)は、サンプル品質を維持し、追加の並列計算コストでレイテンシを向上させることができる。
微分方程式の並列時間積分法であるPararealアルゴリズムから着想を得た。
論文 参考訳(メタデータ) (2024-12-11T11:08:09Z) - Assessing Sample Quality via the Latent Space of Generative Models [44.59115390303591]
そこで本研究では,学習した生成モデルの潜伏空間について検討し,生成したサンプルの品質を推定する。
これは、生成されたサンプルの品質が、それに似たトレーニングデータの量に直接関連しているため、実現可能である。
提案手法は, VAE, GAN, 潜伏拡散モデルなど, 様々な生成モデルのサンプル品質と高い相関関係を示す。
論文 参考訳(メタデータ) (2024-07-21T14:05:06Z) - Provable Statistical Rates for Consistency Diffusion Models [87.28777947976573]
最先端の性能にもかかわらず、拡散モデルは、多くのステップが伴うため、遅いサンプル生成で知られている。
本稿では, 整合性モデルに関する最初の統計理論に寄与し, 分散不整合最小化問題としてトレーニングを定式化している。
論文 参考訳(メタデータ) (2024-06-23T20:34:18Z) - Improved Distribution Matching Distillation for Fast Image Synthesis [54.72356560597428]
この制限を解除し、MDDトレーニングを改善する一連の技術であるMDD2を紹介する。
まず、回帰損失と高価なデータセット構築の必要性を排除します。
第2に, GAN損失を蒸留工程に統合し, 生成した試料と実画像との識別を行う。
論文 参考訳(メタデータ) (2024-05-23T17:59:49Z) - DreamSampler: Unifying Diffusion Sampling and Score Distillation for Image Manipulation [55.274817993890714]
DreamSampler は任意の LDM アーキテクチャに適用可能なモデルに依存しないアプローチである。
蒸留と逆サンプリングの両方が可能で、画像編集と再構築のためのガイダンスが追加されている。
既存のアプローチと比較して,DreamSamplerの競合性能を実証する。
論文 参考訳(メタデータ) (2024-03-18T02:08:58Z) - Parallel Sampling of Diffusion Models [76.3124029406809]
拡散モデルは強力な生成モデルであるが、サンプリングが遅い。
そこで本研究では,複数のステップを並列にdenoisingすることで,事前学習した拡散モデルのサンプリングを高速化するParaDiGMSを提案する。
論文 参考訳(メタデータ) (2023-05-25T17:59:42Z) - Deep Equilibrium Approaches to Diffusion Models [1.4275201654498746]
拡散に基づく生成モデルは高品質な画像を生成するのに極めて効果的である。
これらのモデルは通常、高忠実度画像を生成するために長いサンプリングチェーンを必要とする。
我々は、異なる観点からの拡散モデル、すなわち(深い)平衡(DEQ)固定点モデルについて考察する。
論文 参考訳(メタデータ) (2022-10-23T22:02:19Z) - Progressive Distillation for Fast Sampling of Diffusion Models [17.355749359987648]
そこで本研究では, 学習した決定論的拡散サンプリング器を, 半分のサンプリングステップを要した新しい拡散モデルに, 多くのステップを用いて蒸留する方法を提案する。
CIFAR-10、ImageNet、LSUNなどの標準画像生成ベンチマークでは、最先端のサンプルが最大8192ステップで、知覚品質を損なうことなく、最大4ステップのモデルに精算することができる。
論文 参考訳(メタデータ) (2022-02-01T16:07:25Z) - Improved Denoising Diffusion Probabilistic Models [4.919647298882951]
その結果,ddpmは高いサンプル品質を維持しつつ,競合的なログライク性を達成できることがわかった。
また,逆拡散過程の学習分散により,フォワードパスが桁違いに小さくサンプリングできることがわかった。
これらのモデルのサンプルの品質と可能性について,モデルのキャパシティとトレーニング計算でスムーズに拡張できることを示し,スケーラビリティを向上する。
論文 参考訳(メタデータ) (2021-02-18T23:44:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。