論文の概要: MC-SJD : Maximal Coupling Speculative Jacobi Decoding for Autoregressive Visual Generation Acceleration
- arxiv url: http://arxiv.org/abs/2510.24211v1
- Date: Tue, 28 Oct 2025 09:26:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.918817
- Title: MC-SJD : Maximal Coupling Speculative Jacobi Decoding for Autoregressive Visual Generation Acceleration
- Title(参考訳): MC-SJD : 自己回帰視覚生成高速化のための最大結合型投機的ヤコビ復号法
- Authors: Junhyuk So, Hyunho Kook, Chaeyeon Jang, Eunhyeok Park,
- Abstract要約: 我々は,AR視覚生成を高速化する訓練不要並列デコーディングフレームワークMC-SJDを提案する。
MC-SJDは、同一のドラフトトークンをサンプリングする確率を最大化することにより、標準投機的ヤコビ復号(SJD)を大幅に加速することを示す。
注目すべきは、この手法は既存のアルゴリズムに1行の修正しか必要としないが、性能は大幅に向上するということである。
- 参考スコア(独自算出の注目度): 14.582793306013615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While autoregressive (AR) modeling has recently emerged as a new paradigm in visual generation, its practical adoption is severely constrained by the slow inference speed of per-token generation, which often requires thousands of steps to produce a single sample. To address this challenge, we propose MC-SJD, a training-free, lossless parallel decoding framework designed to accelerate AR visual generation by extending the recently introduced Speculative Jacobi Decoding (SJD). Although SJD shows strong potential for accelerating AR generation, we demonstrate that token instability across iterations significantly reduces the acceptance rate, a limitation that primarily arises from the independent sampling process used during draft token generation. To overcome this, we introduce MC-SJD, an information-theoretic approach based on coupling, which substantially accelerates standard SJD by maximizing the probability of sampling identical draft tokens across consecutive iterations, all while preserving its lossless property. Remarkably, this method requires only a single-line modification to the existing algorithm, yet achieves substantial performance gains, delivering up to a ~4.2x acceleration in image generation and ~13.3x acceleration in video generation compared to standard AR decoding, without any degradation in output quality.
- Abstract(参考訳): 自己回帰(AR)モデリングは近年、ビジュアルジェネレーションの新しいパラダイムとして登場したが、その実践的採用は、1つのサンプルを生成するのに何千ステップも要する、トーケン世代ごとの遅い推論速度によって厳しく制約されている。
この課題に対処するために,最近導入されたSpeculative Jacobi Decoding (SJD)を拡張してARビジュアル生成を高速化する,トレーニング不要で損失のない並列デコーディングフレームワークMC-SJDを提案する。
SJDはAR生成を加速させる強い可能性を示しているが、繰り返しのトークン不安定性は受け入れ率を大幅に低下させることを示す。
これを解決するために、MC-SJDという結合に基づく情報理論的手法を導入し、その損失のない特性を保ちながら、同一のドラフトトークンを連続反復してサンプリングする確率を最大化することにより、標準SJDを大幅に高速化する。
注目すべきは、この手法は既存のアルゴリズムの単行修正しか必要とせず、出力品質を劣化させることなく、画像生成において最大4.2倍、ビデオ生成において最大13.3倍の高速化を実現する。
関連論文リスト
- Uniform Discrete Diffusion with Metric Path for Video Generation [103.86033350602908]
連続空間ビデオ生成は急速に進歩し、離散的なアプローチはエラーの蓄積と長時間の矛盾により遅れている。
我々は、拡張性のあるビデオ生成のための連続的なアプローチでギャップを埋める強力なフレームワークであるUniform Generative ModelingとUniform pAth(URSA)を提案する。
URSAは既存の離散的手法を一貫して上回り、最先端の連続拡散法に匹敵する性能を達成する。
論文 参考訳(メタデータ) (2025-10-28T17:59:57Z) - Fast Inference via Hierarchical Speculative Decoding [65.40448210801763]
階層的投機的復号法(HSD)は,各モデルがトークンを提案し,次に大きなモデルが1つのフォワードパスで検証する階層構造に,ドラフトモデルを積み重ねるアルゴリズムである。
HSDは最高の単軸ベースラインよりも1.2倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2025-10-22T15:56:19Z) - Plug-and-Play Context Feature Reuse for Efficient Masked Generation [36.563229330549284]
MGM(Masked Generative Model)は、画像合成の強力なフレームワークとして登場した。
本稿では,MGMの推論を高速化するプラグイン・アンド・プレイモジュールであるReCAP(Reused Context-Aware Prediction)を紹介する。
論文 参考訳(メタデータ) (2025-05-25T10:57:35Z) - Fast Autoregressive Models for Continuous Latent Generation [49.079819389916764]
自己回帰モデルは、特にNLPにおいて、シーケンシャルなデータ生成において顕著な成功を収めている。
最近の研究で、マスク付き自己回帰モデル(MAR)は拡散ヘッドを用いて連続空間内のトーケン分布をモデル化することによって量子化をバイパスする。
本稿では,MARの拡散ヘッドを軽量ショートカットヘッドに置き換える新しいフレームワークであるFast AutoRegressive Model (FAR)を提案する。
論文 参考訳(メタデータ) (2025-04-24T13:57:08Z) - LANTERN: Accelerating Visual Autoregressive Models with Relaxed Speculative Decoding [30.630803933771865]
実験により,提案手法が投機的復号化よりも大幅に高速化されたことを示す。
LANTERNは、greedyデコーディングやランダムサンプリングと比較して、$mathbf1.75times$と$mathbf1.82times$のスピードアップを増大させる。
論文 参考訳(メタデータ) (2024-10-04T12:21:03Z) - Accelerating Auto-regressive Text-to-Image Generation with Training-free Speculative Jacobi Decoding [60.188309982690335]
本稿では,SJD (Speculative Jacobi Decoding) の学習自由確率並列復号法を提案する。
SJDは、サンプリングベースのトークン復号におけるランダム性を維持しつつ、自動回帰テキスト・画像生成の推論を加速する。
具体的には、SJDは各ステップで複数のトークンを予測し、確率的基準に基づいてトークンを受け付けます。
論文 参考訳(メタデータ) (2024-10-02T16:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。