論文の概要: Analyzing and Improving Fast Sampling of Text-to-Image Diffusion Models
- arxiv url: http://arxiv.org/abs/2603.00763v1
- Date: Sat, 28 Feb 2026 18:09:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.355813
- Title: Analyzing and Improving Fast Sampling of Text-to-Image Diffusion Models
- Title(参考訳): テキスト・画像拡散モデルの高速サンプリング解析と改善
- Authors: Zhenyu Zhou, Defang Chen, Siwei Lyu, Chun Chen, Can Wang,
- Abstract要約: テキストと画像の拡散モデルは前例のない成功を収めたが、限られたサンプリング予算の下で高品質な画像を作成するのに苦戦している。
本研究では,サンプリング軌道に沿った均一な幾何変動を確実にするスケジューリング戦略として,一定全回転スケジュール(TORS)を提案する。
TORSは以前のトレーニング不要加速法より優れており、Flux.1-DevとStable Diffusion 3.5の10段のサンプリングステップで高品質な画像を生成する。
- 参考スコア(独自算出の注目度): 32.70019265781621
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Text-to-image diffusion models have achieved unprecedented success but still struggle to produce high-quality results under limited sampling budgets. Existing training-free sampling acceleration methods are typically developed independently, leaving the overall performance and compatibility among these methods unexplored. In this paper, we bridge this gap by systematically elucidating the design space, and our comprehensive experiments identify the sampling time schedule as the most pivotal factor. Inspired by the geometric properties of diffusion models revealed through the Frenet-Serret formulas, we propose constant total rotation schedule (TORS), a scheduling strategy that ensures uniform geometric variation along the sampling trajectory. TORS outperforms previous training-free acceleration methods and produces high-quality images with 10 sampling steps on Flux.1-Dev and Stable Diffusion 3.5. Extensive experiments underscore the adaptability of our method to unseen models, hyperparameters, and downstream applications.
- Abstract(参考訳): テキストと画像の拡散モデルは前例のない成功を収めたが、限られたサンプリング予算の下で高品質な結果を生み出すのに苦戦している。
既存のトレーニング不要サンプリング加速法は、通常独立して開発され、これらの方法の全体的な性能と互換性は未解明のままである。
本稿では,設計空間を体系的に解明することで,このギャップを埋める。
本稿では,Frenet-Serret式による拡散モデルの幾何学的特性に着想を得て,サンプリング軌道に沿った均一な幾何変動を保証するスケジューリング手法であるTORSを提案する。
TORSは以前のトレーニング不要加速法より優れており、Flux.1-DevとStable Diffusion 3.5の10段のサンプリングステップで高品質な画像を生成する。
大規模な実験により、我々の手法はモデル、ハイパーパラメータ、下流の応用に適応可能であることが示された。
関連論文リスト
- Diff-ES: Stage-wise Structural Diffusion Pruning via Evolutionary Search [40.67449277026597]
textbfDiff-ESは、textbfEvolutionary textbfSearchを介して、段階的に構造化されたtextbfDiff-usion プルーニングフレームワークである。
筆者らのフレームワークは, 奥行きと幅幅を含む拡散モデルに対して, 既存の構造化プルーニング手法と自然に統合されている。
DiTとSDXLの実験により、Diff-ESは連続的にウォールクロックの高速化を実現し、生成品質の低下を最小限に抑えていることが示された。
論文 参考訳(メタデータ) (2026-03-05T12:18:40Z) - TADA: Improved Diffusion Sampling with Training-free Augmented Dynamics [40.75121059939763]
我々は,ImageNet512 上で比較 FID を比較対象とするアートソルバの現在の状態よりも最大 186% 以上高速な新しいサンプリング手法を提案する。
提案手法の鍵は,高次元初期雑音を用いて,より詳細なサンプルを生成することである。
論文 参考訳(メタデータ) (2025-06-26T20:30:27Z) - Adaptive Destruction Processes for Diffusion Samplers [12.446080077998834]
本稿では,拡散サンプリング装置におけるトレーニング可能な破壊プロセスの課題とメリットについて考察する。
ステップ数に制限がある場合、生成過程と破壊過程の両方を訓練することで、より高速な収束とサンプリング品質の向上が期待できる。
論文 参考訳(メタデータ) (2025-06-02T11:07:27Z) - Diffusing Differentiable Representations [60.72992910766525]
本稿では,事前学習した拡散モデルを用いて,微分可能な表現(拡散)をサンプリングする,新しい学習自由な手法を提案する。
差分によって引き起こされるサンプルに対する暗黙の制約を特定し、この制約に対処することで、生成されたオブジェクトの一貫性と詳細が大幅に改善されることを示す。
論文 参考訳(メタデータ) (2024-12-09T20:42:58Z) - Adaptive Non-uniform Timestep Sampling for Accelerating Diffusion Model Training [6.694752081172194]
データ分布が複雑化するにつれて、収束のためのトレーニング拡散モデルがますます複雑になる。
より重要な時間ステップを優先する一様でない時間ステップサンプリング手法を提案する。
提案手法は, 各種データセット, スケジューリング戦略, 拡散アーキテクチャにまたがるロバストな性能を示す。
論文 参考訳(メタデータ) (2024-11-15T07:12:18Z) - Provable Statistical Rates for Consistency Diffusion Models [87.28777947976573]
最先端の性能にもかかわらず、拡散モデルは、多くのステップが伴うため、遅いサンプル生成で知られている。
本稿では, 整合性モデルに関する最初の統計理論に寄与し, 分散不整合最小化問題としてトレーニングを定式化している。
論文 参考訳(メタデータ) (2024-06-23T20:34:18Z) - Fast LiDAR Upsampling using Conditional Diffusion Models [1.3709133749179265]
既存の手法は拡散モデルを用いて高忠実度で洗練されたLiDARデータを生成する可能性を示している。
高速かつ高品質な3次元シーンポイント雲のスパース・ツー・デンスアップサンプリングのための条件拡散モデルに基づく新しいアプローチを提案する。
本手法では,条件付き塗装マスクを用いて訓練した拡散確率モデルを用いて,画像補完タスクの性能向上を図っている。
論文 参考訳(メタデータ) (2024-05-08T08:38:28Z) - Fast Sampling via Discrete Non-Markov Diffusion Models with Predetermined Transition Time [49.598085130313514]
離散非マルコフ拡散モデル(DNDM)を提案する。
これにより、トレーニング不要なサンプリングアルゴリズムにより、関数評価の数を大幅に削減できる。
有限ステップサンプリングから無限ステップサンプリングへの移行について検討し、離散プロセスと連続プロセスのギャップを埋めるための新たな洞察を提供する。
論文 参考訳(メタデータ) (2023-12-14T18:14:11Z) - DiffuSeq-v2: Bridging Discrete and Continuous Text Spaces for
Accelerated Seq2Seq Diffusion Models [58.450152413700586]
ガウス空間に基づく離散突然変異を再構成する学習において拡散モデルを容易にする軟吸収状態を導入する。
我々は、サンプリングプロセスの高速化のために、連続空間内で最先端のODEソルバを用いている。
提案手法は, トレーニング収束率を4倍に向上させ, 類似品質のサンプルを800倍高速に生成する。
論文 参考訳(メタデータ) (2023-10-09T15:29:10Z) - Solving Diffusion ODEs with Optimal Boundary Conditions for Better Image Super-Resolution [82.50210340928173]
拡散モデルのランダム性は非効率性と不安定性をもたらすため、SR結果の品質を保証することは困難である。
本稿では,一連の拡散型SR手法の恩恵を受ける可能性を持つプラグアンドプレイサンプリング手法を提案する。
提案手法によりサンプリングされたSR結果の質は, 学習前の拡散ベースSRモデルと同一のランダム性を有する現在の手法でサンプリングされた結果の質より優れる。
論文 参考訳(メタデータ) (2023-05-24T17:09:54Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。