論文の概要: TMPDiff: Temporal Mixed-Precision for Diffusion Models
- arxiv url: http://arxiv.org/abs/2603.14062v1
- Date: Sat, 14 Mar 2026 18:06:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.575544
- Title: TMPDiff: Temporal Mixed-Precision for Diffusion Models
- Title(参考訳): TMPDiff:拡散モデルのための時間混合精度
- Authors: Basile Lewandowski, Simon Kurz, Aditya Shankar, Robert Birke, Jian-Jia Chen, Lydia Y. Chen,
- Abstract要約: TMPDiffは拡散モデルのための時間混合精度フレームワークである。
異なる数値の精度を異なる識別タイムステップに割り当てる。
一致したスピードアップで一様精度のベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 10.106598516648418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models are the go-to method for Text-to-Image generation, but their iterative denoising processes has high inference latency. Quantization reduces compute time by using lower bitwidths, but applies a fixed precision across all denoising timesteps, leaving an entire optimization axis unexplored. We propose TMPDiff, a temporal mixed-precision framework for diffusion models that assigns different numeric precision to different denoising timesteps. We hypothesize that quantization errors accumulate additively across timesteps, which we then validate experimentally. Based on our observations, we develop an adaptive bisectioning-based algorithm, which assigns per-step precisions with linear evaluation complexity, reducing an otherwise exponential search problem. Across four state-of-the-art diffusion models and three datasets, TMPDiff consistently outperforms uniform-precision baselines at matched speedup, achieving 10 to 20% improvement in perceptual quality. On FLUX.1-dev, TMPDiff achieves 90% SSIM relative to the full-precision model at a speedup of 2.5x over 16-bit inference.
- Abstract(参考訳): 拡散モデルはテキスト・ツー・イメージ生成のゴーツーメソッドであるが、反復的復調処理は高い推論遅延を有する。
量子化はビット幅を小さくすることで計算時間を短縮するが、全てのデノナイジング時間ステップに一定の精度で適用し、全最適化軸は未探索のままである。
本稿では,拡散モデルの時間混合精度フレームワークであるTMPDiffを提案する。
我々は、量子化誤差が時間ステップにまたがって加算的に蓄積すると仮定し、実験的に検証する。
そこで本研究では,線形評価の複雑度でステップごとの精度を割り当てる適応的二分法に基づくアルゴリズムを開発し,指数関数探索問題を低減した。
4つの最先端拡散モデルと3つのデータセットに対して、TMPDiffは一致したスピードアップで一様精度ベースラインを一貫して上回り、知覚品質が10~20%向上した。
FLUX.1-devでは、TMPDiffは16ビットの推論で2.5倍のスピードアップで全精度モデルと比較して90%のSSIMを達成する。
関連論文リスト
- Noise Conditional Variational Score Distillation [60.38982038894823]
騒音条件変化スコア蒸留(NCVSD)は, 予混合拡散モデルから生成消音剤を蒸留する新しい方法である。
この知見を変分スコア蒸留フレームワークに組み込むことで、生成的デノイザのスケーラブルな学習を可能にする。
論文 参考訳(メタデータ) (2025-06-11T06:01:39Z) - Towards More Accurate Diffusion Model Acceleration with A Timestep Tuner [112.99126045081046]
数千のデノナイジングステップを用いて画像を生成するために定式化された拡散モデルは通常、遅い推論速度に悩まされる。
最小コストで特定の区間に対してより正確な積分方向を求めるのに役立つtextbftimestep tunerを提案する。
実験により,我々のプラグイン設計を効率的に訓練し,様々な最先端加速度法の推論性能を向上できることが示された。
論文 参考訳(メタデータ) (2023-10-14T02:19:07Z) - AdaDiff: Accelerating Diffusion Models through Step-Wise Adaptive Computation [32.74923906921339]
拡散モデルは多彩で高忠実な画像を生成する上で大きな成功を収めるが、それらの応用は本質的に遅い生成速度によって妨げられる。
本稿では,拡散モデルの生成効率を向上させるために,各サンプリングステップで動的に計算資源を割り当てる適応フレームワークであるAdaDiffを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:10:04Z) - Accelerating Diffusion-based Combinatorial Optimization Solvers by
Progressive Distillation [43.60874566377421]
本稿では, 脱臭過程において少ないステップで推算を高速化するために, プログレッシブ蒸留法を提案する。
実験結果から, 徐々に蒸留したモデルでは0.019%の性能低下を伴わず, 16倍の速度で推算できることがわかった。
論文 参考訳(メタデータ) (2023-08-12T21:25:24Z) - Parallel Sampling of Diffusion Models [76.3124029406809]
拡散モデルは強力な生成モデルであるが、サンプリングが遅い。
そこで本研究では,複数のステップを並列にdenoisingすることで,事前学習した拡散モデルのサンプリングを高速化するParaDiGMSを提案する。
論文 参考訳(メタデータ) (2023-05-25T17:59:42Z) - PTQD: Accurate Post-Training Quantization for Diffusion Models [22.567863065523902]
拡散モデルの学習後の量子化は、モデルのサイズを著しく減らし、再学習することなくサンプリングプロセスを加速することができる。
既存のPTQ法を直接低ビット拡散モデルに適用することは、生成されたサンプルの品質を著しく損なう可能性がある。
本稿では,量子化復調過程における量子化雑音と拡散摂動雑音の統一的な定式化を提案する。
論文 参考訳(メタデータ) (2023-05-18T02:28:42Z) - Pseudo Numerical Methods for Diffusion Models on Manifolds [77.40343577960712]
Denoising Diffusion Probabilistic Models (DDPM) は、画像やオーディオサンプルなどの高品質なサンプルを生成することができる。
DDPMは最終的なサンプルを生成するために数百から数千のイテレーションを必要とする。
拡散モデル(PNDM)の擬似数値法を提案する。
PNDMは、1000段DDIM(20倍の高速化)と比較して、50段の精度で高品質な合成画像を生成することができる
論文 参考訳(メタデータ) (2022-02-20T10:37:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。