論文の概要: Just-in-Time: Training-Free Spatial Acceleration for Diffusion Transformers
- arxiv url: http://arxiv.org/abs/2603.10744v1
- Date: Wed, 11 Mar 2026 13:16:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.956884
- Title: Just-in-Time: Training-Free Spatial Acceleration for Diffusion Transformers
- Title(参考訳): ジャスト・イン・タイム:拡散変圧器の訓練不要空間加速度
- Authors: Wenhao Sun, Ji Li, Zhaoqiang Liu,
- Abstract要約: 拡散変換器は、画像合成における新しい最先端技術を確立したが、計算コストが高く、実用的展開を妨げている。
JiT(Just-in-Time)は空間領域の加速によってこの問題に対処する新しいトレーニングフリーフレームワークである。
JiTは空間的に近似された生成常微分方程式(ODE)を定式化し、完全な潜在状態の進化を駆動する。
- 参考スコア(独自算出の注目度): 15.69483083441184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion Transformers have established a new state-of-the-art in image synthesis, but the high computational cost of iterative sampling severely hampers their practical deployment. While existing acceleration methods often focus on the temporal domain, they overlook the substantial spatial redundancy inherent in the generative process, where global structures emerge long before fine-grained details are formed. The uniform computational treatment of all spatial regions represents a critical inefficiency. In this paper, we introduce Just-in-Time (JiT), a novel training-free framework that addresses this challenge by acceleration in the spatial domain. JiT formulates a spatially approximated generative ordinary differential equation (ODE) that drives the full latent state evolution based on computations from a dynamically selected, sparse subset of anchor tokens. To ensure seamless transitions as new tokens are incorporated to expand the dimensions of the latent state, we propose a deterministic micro-flow, a simple and effective finite-time ODE that maintains both structural coherence and statistical correctness. Extensive experiments on the state-of-the-art FLUX.1-dev model demonstrate that JiT achieves up to a 7x speedup with nearly lossless performance, significantly outperforming existing acceleration methods and establishing a new and superior trade-off between inference speed and generation fidelity.
- Abstract(参考訳): 拡散変換器は、画像合成における新しい最先端技術を確立したが、反復サンプリングの高い計算コストは、その実践的な展開を著しく妨げている。
既存の加速法はしばしば時間領域に焦点をあてるが、それらは生成過程に固有の空間的冗長性を見落としている。
すべての空間領域の均一な計算処理は、重要な非効率さを表す。
本稿では、空間領域における加速度によるこの課題に対処する新しいトレーニングフリーフレームワークであるJust-in-Time(JiT)を紹介する。
JiTは空間的に近似された生成常微分方程式(ODE)を定式化し、動的に選択されたアンカートークンのスパース部分集合からの計算に基づいて完全な潜在状態の進化を駆動する。
遅延状態の次元を拡大するために新しいトークンが組み込まれ、シームレスな遷移を保証するために、構造的コヒーレンスと統計的正当性の両方を維持する単純かつ効果的な有限時間ODEである決定論的マイクロフローを提案する。
最新のFLUX.1-devモデルに関する大規模な実験により、JITは最大7倍のスピードアップを実現し、ほぼ損失のない性能を実現し、既存の加速度法を著しく上回り、推論速度と生成忠実度の間に新たな優れたトレードオフを確立した。
関連論文リスト
- Parallel Complex Diffusion for Scalable Time Series Generation [50.01609741902786]
PaCoDiは周波数領域における生成モデリングを分離するスペクトルネイティブアーキテクチャである。
本研究では,PaCoDiが生成品質と推論速度の両方において,既存のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2026-02-10T14:31:53Z) - OSDEnhancer: Taming Real-World Space-Time Video Super-Resolution with One-Step Diffusion [64.10689934231165]
ビデオスーパーレゾリューションモデル(DM)は、ビデオスーパーレゾリューション(VSR)において極めて成功している。
時空ビデオスーパーレゾリューション(STVSR)の可能性は、低解像度から高解像度までのリアルな視覚コンテンツを回復する必要があるが、コヒーレントなダイナミックスでフレームレートを改善する必要がある。
提案するOSDEnhancerは,効率的なワンステップ拡散プロセスにより,実世界のSTVSRを初期化するための最初の手法である。
実験により,提案手法は実世界のシナリオにおいて優れた性能を維持しつつ,最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2026-01-28T06:59:55Z) - SDiT: Semantic Region-Adaptive for Diffusion Transformers [4.7254170106792035]
拡散変換器 (DiTs) はテキストと画像の合成において最先端の性能を達成するが、復調の反復性や世界的注目の二次的コストのため計算コストは高い。
本稿では,SDiTを提案する。SDiTは,領域の複雑さに応じて計算を割り当てるセマンティック領域適応拡散変換器である。
論文 参考訳(メタデータ) (2026-01-18T06:43:36Z) - A-FloPS: Accelerating Diffusion Sampling with Adaptive Flow Path Sampler [21.134678093577193]
A-FloPSは、フローベースの生成モデルのための原則化された、トレーニング不要のフレームワークである。
A-FloPSは, 試料品質と効率の両面において, 最先端のトレーニング不要サンプリング器より一貫して優れていることを示す。
5ドルの関数評価で、A-FloPSはFIDを大幅に低くし、よりシャープでコヒーレントな画像を生成する。
論文 参考訳(メタデータ) (2025-08-22T13:28:16Z) - DiffuSeq-v2: Bridging Discrete and Continuous Text Spaces for
Accelerated Seq2Seq Diffusion Models [58.450152413700586]
ガウス空間に基づく離散突然変異を再構成する学習において拡散モデルを容易にする軟吸収状態を導入する。
我々は、サンプリングプロセスの高速化のために、連続空間内で最先端のODEソルバを用いている。
提案手法は, トレーニング収束率を4倍に向上させ, 類似品質のサンプルを800倍高速に生成する。
論文 参考訳(メタデータ) (2023-10-09T15:29:10Z) - A Universal Framework for Quantum Dissipation:Minimally Extended State
Space and Exact Time-Local Dynamics [5.221249829454763]
オープン量子系の力学は、最小の拡張状態空間で定式化される。
時間局所進化方程式は、混合リウヴィル・フォック空間で生成される。
論文 参考訳(メタデータ) (2023-07-31T15:57:10Z) - Learning to Accelerate Partial Differential Equations via Latent Global
Evolution [64.72624347511498]
The Latent Evolution of PDEs (LE-PDE) is a simple, fast and scalable method to accelerate the simulation and inverse optimization of PDEs。
我々は,このような潜在力学を効果的に学習し,長期的安定性を確保するために,新たな学習目標を導入する。
更新対象の寸法が最大128倍、速度が最大15倍向上し、競争精度が向上した。
論文 参考訳(メタデータ) (2022-06-15T17:31:24Z) - Hessian-Free High-Resolution Nesterov Acceleration for Sampling [55.498092486970364]
最適化のためのNesterovのAccelerated Gradient(NAG)は、有限のステップサイズを使用する場合の連続時間制限(ノイズなしの運動的ランゲヴィン)よりも優れたパフォーマンスを持つ。
本研究は, この現象のサンプリング法について検討し, 離散化により加速勾配に基づくMCMC法が得られる拡散過程を提案する。
論文 参考訳(メタデータ) (2020-06-16T15:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。