論文の概要: VVS: Accelerating Speculative Decoding for Visual Autoregressive Generation via Partial Verification Skipping
- arxiv url: http://arxiv.org/abs/2511.13587v1
- Date: Mon, 17 Nov 2025 16:50:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 18:52:09.61708
- Title: VVS: Accelerating Speculative Decoding for Visual Autoregressive Generation via Partial Verification Skipping
- Title(参考訳): VVS:部分的検証スキーピングによる視覚自己回帰生成のための投機的デコーディングの高速化
- Authors: Haotian Dong, Ye Li, Rongwei Lu, Chen Tang, Shu-Tao Xia, Zhi Wang,
- Abstract要約: 投機的復号法(SD)は視覚ARモデルの高速化に有効であることが証明されている。
部分的検証スキップによる視覚AR生成を高速化する新しいフレームワークVVSを提案する。
- 参考スコア(独自算出の注目度): 52.58270801983525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual autoregressive (AR) generation models have demonstrated strong potential for image generation, yet their next-token-prediction paradigm introduces considerable inference latency. Although speculative decoding (SD) has been proven effective for accelerating visual AR models, its "draft one step, then verify one step" paradigm prevents a direct reduction of the forward passes, thus restricting acceleration potential. Motivated by the visual token interchangeability, we for the first time to explore verification skipping in the SD process of visual AR model generation to explicitly cut the number of target model forward passes, thereby reducing inference latency. Based on an analysis of the drafting stage's characteristics, we observe that verification redundancy and stale feature reusability are key factors to retain generation quality and speedup for verification-free steps. Inspired by these two observations, we propose a novel SD framework VVS to accelerate visual AR generation via partial verification skipping, which integrates three complementary modules: (1) a verification-free token selector with dynamical truncation, (2) token-level feature caching and reuse, and (3) fine-grained skipped step scheduling. Consequently, VVS reduces the number of target model forward passes by a factor of $2.8\times$ relative to vanilla AR decoding while maintaining competitive generation quality, offering a superior speed-quality trade-off over conventional SD frameworks and revealing strong potential to reshape the SD paradigm.
- Abstract(参考訳): 視覚的自己回帰(AR)生成モデルは、画像生成の強い可能性を示しているが、その次世代予測パラダイムは、かなりの推論遅延をもたらす。
投機的復号法(SD)は視覚ARモデルの高速化に有効であることが証明されているが、その"ドラフト1ステップ, 検証1ステップ"パラダイムは前方通過の直接減少を防止し、加速電位を制限する。
視覚的トークン交換性により、視覚的ARモデル生成のSDプロセスにおける検証スキップを初めて検討し、目標モデルの前方通過数を明示的に削減し、推論遅延を低減した。
原案作成段階の特徴を解析した結果,検証冗長性と古い特徴の再利用性は,検証不要なステップにおける生成品質とスピードアップを維持する上で重要な要素であることがわかった。
これら2つの観測から着想を得たSDフレームワークVVSは,部分的検証スキップによる視覚的AR生成を高速化するものであり,(1)動的トランケーションを有する検証不要なトークンセレクタ,(2)トークンレベルの特徴キャッシングと再利用,(3)きめ細かいスキップステップスケジューリングの3つの相補的モジュールを統合している。
結果として、VVSは、競争力のある生成品質を維持しながら、バニラARデコードと比較して2.8\times$の目標モデルパスの数を削減し、従来のSDフレームワークよりも高速で高品質なトレードオフを提供し、SDパラダイムを再形成する強い可能性を明らかにしている。
関連論文リスト
- MC-SJD : Maximal Coupling Speculative Jacobi Decoding for Autoregressive Visual Generation Acceleration [14.582793306013615]
我々は,AR視覚生成を高速化する訓練不要並列デコーディングフレームワークMC-SJDを提案する。
MC-SJDは、同一のドラフトトークンをサンプリングする確率を最大化することにより、標準投機的ヤコビ復号(SJD)を大幅に加速することを示す。
注目すべきは、この手法は既存のアルゴリズムに1行の修正しか必要としないが、性能は大幅に向上するということである。
論文 参考訳(メタデータ) (2025-10-28T09:26:27Z) - ScaleWeaver: Weaving Efficient Controllable T2I Generation with Multi-Scale Reference Attention [86.93601565563954]
ScaleWeaverは、高度な視覚的自己回帰(VAR)モデルに基づいて、高忠実で制御可能な生成を実現するために設計されたフレームワークである。
提案された参照注意モジュールは image$rightarrow$condition から不要な注意を排除し、計算コストを削減している。
実験によると、ScaleWeaverは、拡散ベースの方法よりも優れた効率を実現しつつ、高品質な生成と正確な制御を提供する。
論文 参考訳(メタデータ) (2025-10-16T17:00:59Z) - SP-VLA: A Joint Model Scheduling and Token Pruning Approach for VLA Model Acceleration [70.72227437717467]
VLA(Vision-Language-Action)モデルは、その強力な制御能力に注目が集まっている。
計算コストが高く、実行頻度も低いため、ロボット操作や自律ナビゲーションといったリアルタイムタスクには適さない。
本稿では,共同スケジューリングモデルとプルーニングトークンにより,VLAモデルを高速化する統一フレームワークSP-VLAを提案する。
論文 参考訳(メタデータ) (2025-06-15T05:04:17Z) - SkipVAR: Accelerating Visual Autoregressive Modeling via Adaptive Frequency-Aware Skipping [30.85025293160079]
生成プロセスにおける高周波コンポーネント、または後続のステップは、推論遅延に不均等に寄与する。
ステップ冗長性と非条件分岐冗長性の2つの主要な非効率性の原因を同定する。
本稿では、不要な生成ステップを選択的に省略して効率を向上させる自動ステップスキッピング戦略を提案する。
論文 参考訳(メタデータ) (2025-06-10T15:35:29Z) - SD-ReID: View-aware Stable Diffusion for Aerial-Ground Person Re-Identification [74.36139886192495]
本稿では,AG-ReID のための SD-ReID という新しい生成フレームワークを提案する。
まず、ViTベースのモデルを用いて人物表現を抽出し、個人性や視認性を含む制御可能な条件を抽出する。
次に、安定拡散(SD)モデルを微調整し、これらの制御可能な条件によって導かれる人物表現を強化する。
論文 参考訳(メタデータ) (2025-04-13T12:44:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。