論文の概要: Draft-and-Target Sampling for Video Generation Policy
- arxiv url: http://arxiv.org/abs/2603.13438v1
- Date: Fri, 13 Mar 2026 09:54:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.205671
- Title: Draft-and-Target Sampling for Video Generation Policy
- Title(参考訳): 映像生成政策のためのドラフト・アンド・ターゲットサンプリング
- Authors: Qikang Zhang, Yingjie Lei, Wei Liu, Daochang Liu,
- Abstract要約: 本稿では,ビデオ生成ポリシーのための新しい拡散推論パラダイムであるDraft-and-Target Smplingを提案する。
提案手法は, 最大2.1倍の高速化を実現し, 成功率を最小限に抑えながら, 現在の最先端手法の効率を向上させることができる。
- 参考スコア(独自算出の注目度): 18.94652614447133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video generation models have been used as a robot policy to predict the future states of executing a task conditioned on task description and observation. Previous works ignore their high computational cost and long inference time. To address this challenge, we propose Draft-and-Target Sampling, a novel diffusion inference paradigm for video generation policy that is training-free and can improve inference efficiency. We introduce a self-play denoising approach by utilizing two complementary denoising trajectories in a single model, draft sampling takes large steps to generate a global trajectory in a fast manner and target sampling takes small steps to verify it. To further speedup generation, we introduce token chunking and progressive acceptance strategy to reduce redundant computation. Experiments on three benchmarks show that our method can achieve up to 2.1x speedup and improve the efficiency of current state-of-the-art methods with minimal compromise to the success rate. Our code is available.
- Abstract(参考訳): 映像生成モデルは,タスク記述と観察に基づくタスク実行の将来の状態を予測するロボットポリシーとして使用されている。
それまでの作業では、高い計算コストと長い推測時間を無視していた。
この課題に対処するために、トレーニング不要で推論効率を向上させるビデオ生成ポリシーのための新しい拡散推論パラダイムであるDraft-and-Target Smplingを提案する。
本研究では,1つのモデルに2つの相補的認知軌道を応用して自己表現的手法を導入し,ドラフトサンプリングはグローバルな軌道を高速に生成するために大きなステップを要し,ターゲットサンプリングはそれを検証するために小さなステップを要した。
トークンチャンキングとプログレッシブ・アクセプション・ストラテジーを導入し,冗長な計算量を削減する。
3つのベンチマーク実験により,我々の手法は最大2.1倍の高速化を実現し,成功率に最小限の妥協で最先端の手法の効率を向上させることができることが示された。
私たちのコードは利用可能です。
関連論文リスト
- LatSearch: Latent Reward-Guided Search for Faster Inference-Time Scaling in Video Diffusion [87.42285185305813]
本稿では,Reward-Guided Resampling and Pruningを実行する新しい推論時間探索機構を提案する。
LatSearchは、ベースラインのWan2.1モデルと比較して、複数の評価次元にわたるビデオ生成を一貫して改善する。
論文 参考訳(メタデータ) (2026-03-15T18:07:29Z) - SwiftVideo: A Unified Framework for Few-Step Video Generation through Trajectory-Distribution Alignment [76.60024640625478]
拡散ベースまたはフローベースモデルは、ビデオ合成において大きな進歩を遂げているが、複数の反復サンプリングステップが必要である。
本稿では, トラジェクトリ保存と分散マッチングの利点を組み合わせた, 統一かつ安定な蒸留フレームワークを提案する。
提案手法は高品質なビデオ生成を維持しつつ,推論ステップの数を著しく削減する。
論文 参考訳(メタデータ) (2025-08-08T07:26:34Z) - Real-Time Iteration Scheme for Diffusion Policy [23.124189676943757]
本稿では,RTI(Real-Time Iteration)スキームにインスパイアされた新しい手法を導入し,推論を高速化する。
本稿では,ロボット操作における把握などの離散的な動作を効果的に扱うためのスケーリング手法を提案する。
提案方式は蒸留や政策の再設計を必要とせず,実行時の計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2025-08-07T13:49:00Z) - Alignment-Augmented Speculative Decoding with Alignment Sampling and Conditional Verification [48.17448109580635]
トレーニング不要なアライメント拡張型投機的復号アルゴリズムを提案する。
提案手法は,平均受理長を2.39まで,生成速度を2.23倍に向上させる。
論文 参考訳(メタデータ) (2025-05-19T14:55:41Z) - Quantizing Diffusion Models from a Sampling-Aware Perspective [43.95032520555463]
本稿では,混合次軌道アライメント手法を考案したサンプリング対応量子化手法を提案する。
複数のデータセットにまたがるスパースステップ高速サンプリング実験により,本手法は高速サンプリング器の高速収束特性を保っていることが示された。
論文 参考訳(メタデータ) (2025-05-04T20:50:44Z) - Efficient Continuous Video Flow Model for Video Prediction [43.16308241800144]
拡散や修正フローモデルなどの多段階予測モデルでは、単一ステップ法と比較して新しいフレームをサンプリングする際のレイテンシが高くなる。
本稿では,遅延制約を緩和し,映像予測タスクへのこれらのプロセスの適応を容易にすることを目的とした,多段階プロセスのモデリング手法を提案する。
論文 参考訳(メタデータ) (2024-12-07T12:11:25Z) - AdaDiff: Adaptive Step Selection for Fast Diffusion Models [82.78899138400435]
我々は、インスタンス固有のステップ利用ポリシーを学ぶために設計された軽量フレームワークであるAdaDiffを紹介します。
AdaDiffはポリシーメソッドを使用して最適化され、慎重に設計された報酬関数を最大化する。
我々は3つの画像生成と2つのビデオ生成ベンチマークの実験を行い、本手法がベースラインと同じような視覚的品質を実現することを示す。
論文 参考訳(メタデータ) (2023-11-24T11:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。