論文の概要: SJD++: Improved Speculative Jacobi Decoding for Training-free Acceleration of Discrete Auto-regressive Text-to-Image Generation
- arxiv url: http://arxiv.org/abs/2512.07503v1
- Date: Mon, 08 Dec 2025 12:36:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.887018
- Title: SJD++: Improved Speculative Jacobi Decoding for Training-free Acceleration of Discrete Auto-regressive Text-to-Image Generation
- Title(参考訳): SJD++:離散自己回帰テキスト・画像生成のトレーニング不要高速化のための投機的ヤコビデコーディングの改善
- Authors: Yao Teng, Zhihuan Jiang, Han Shi, Xian Liu, Xuefei Ning, Guohao Dai, Yu Wang, Zhenguo Li, Xihui Liu,
- Abstract要約: 大規模な自己回帰モデルは高品質で高解像度の画像を生成することができるが、生成速度が遅い。
本稿では,SJD++ (Speculative Jacobi Decoding++) を提案する。
SJD++は、各フォワードパスでマルチトークン予測を実行し、生成ステップを大幅に削減する。
- 参考スコア(独自算出の注目度): 92.34355601866629
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large autoregressive models can generate high-quality, high-resolution images but suffer from slow generation speed, because these models require hundreds to thousands of sequential forward passes for next-token prediction during inference. To accelerate autoregressive text-to-image generation, we propose Speculative Jacobi Decoding++ (SJD++), a training-free probabilistic parallel decoding algorithm. Unlike traditional next-token prediction, SJD++ performs multi-token prediction in each forward pass, drastically reducing generation steps. Specifically, it integrates the iterative multi-token prediction mechanism from Jacobi decoding, with the probabilistic drafting-and-verification mechanism from speculative sampling. More importantly, for further acceleration, SJD++ reuses high-confidence draft tokens after each verification phase instead of resampling them all. We conduct extensive experiments on several representative autoregressive text-to-image generation models and demonstrate that SJD++ achieves $2\times$ to $3\times$ inference latency reduction and $2\times$ to $7\times$ step compression, while preserving visual quality with no observable degradation.
- Abstract(参考訳): 大規模な自己回帰モデルは高品質で高解像度の画像を生成することができるが、推論中に次の予測を行うには数百から数千のシーケンシャルなフォワードパスを必要とするため、生成速度が遅い。
自動回帰テキスト・画像生成を高速化するために,訓練不要な確率的並列復号アルゴリズムであるSpeculative Jacobi Decoding++ (SJD++)を提案する。
従来の次世代の予測とは異なり、SJD++は各前方パスでマルチトークンの予測を実行し、生成ステップを大幅に削減する。
具体的には、ヤコビ復号からの反復的マルチトークン予測機構と、投機的サンプリングからの確率的起草検証機構を統合する。
さらに重要なのは、さらなるアクセラレーションのために、SJD++は、すべてを再サンプリングする代わりに、検証フェーズ毎に高信頼のドラフトトークンを再利用する。
我々は、いくつかの代表的自動回帰テキスト・画像生成モデルに関する広範な実験を行い、SJD++が2ドル/3ドル/3ドル/3ドル/3ドル/2ドル/7ドル/7ドル/7ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3で,ビジュアル品質を維持した。
関連論文リスト
- Continuous Autoregressive Language Models [56.49239051750678]
我々はCALM(Continuous Autoregressive Language Models)を紹介する。
CALMは高忠実度オートエンコーダを使用して、Kトークンの塊を1つの連続ベクトルに圧縮する。
我々は、堅牢なトレーニング、評価、および制御可能なサンプリングを可能にする包括的可能性のないフレームワークを開発する。
論文 参考訳(メタデータ) (2025-10-31T17:58:11Z) - Speculative Jacobi-Denoising Decoding for Accelerating Autoregressive Text-to-image Generation [110.28291466364784]
Speculative Jacobi-Denoising Decoding (SJD2) は、自動回帰モデルでパラレルトークン生成を可能にするために、デノナイズプロセスをJacobiに組み込むフレームワークである。
提案手法では,事前学習した自己回帰モデルに対して,ノイズ・摂動トークンの埋め込みを受理できる次クリーンな予測パラダイムを導入する。
論文 参考訳(メタデータ) (2025-10-10T04:30:45Z) - XSpecMesh: Quality-Preserving Auto-Regressive Mesh Generation Acceleration via Multi-Head Speculative Decoding [11.414780323191733]
XSpecMeshは自動回帰メッシュ生成モデルの品質保存高速化手法である。
本手法は生成品質を犠牲にすることなく1.7倍の高速化を実現する。
論文 参考訳(メタデータ) (2025-07-31T17:58:30Z) - Accelerating Auto-regressive Text-to-Image Generation with Training-free Speculative Jacobi Decoding [60.188309982690335]
本稿では,SJD (Speculative Jacobi Decoding) の学習自由確率並列復号法を提案する。
SJDは、サンプリングベースのトークン復号におけるランダム性を維持しつつ、自動回帰テキスト・画像生成の推論を加速する。
具体的には、SJDは各ステップで複数のトークンを予測し、確率的基準に基づいてトークンを受け付けます。
論文 参考訳(メタデータ) (2024-10-02T16:05:27Z) - Parallel Decoding via Hidden Transfer for Lossless Large Language Model Acceleration [54.897493351694195]
本稿では,複数連続するトークンを1つのフォワードパスで同時に復号する,新しい並列復号法,すなわちthithidden Transferを提案する。
加速度測定では,Medusa や Self-Speculative decoding など,単モデル加速技術よりも優れています。
論文 参考訳(メタデータ) (2024-04-18T09:17:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。