論文の概要: TempoMaster: Efficient Long Video Generation via Next-Frame-Rate Prediction
- arxiv url: http://arxiv.org/abs/2511.12578v1
- Date: Sun, 16 Nov 2025 12:41:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.387172
- Title: TempoMaster: Efficient Long Video Generation via Next-Frame-Rate Prediction
- Title(参考訳): TempoMaster:Next-Frame-Rate予測による効率的なロングビデオ生成
- Authors: Yukuo Ma, Cong Liu, Junke Wang, Junqi Liu, Haibin Huang, Zuxuan Wu, Chi Zhang, Xuelong Li,
- Abstract要約: TempoMasterは、次のフレームレートの予測として、長いビデオ生成を定式化する。
まず、ビデオシーケンス全体の粗い青写真として機能する低フレームレートのクリップを生成します。
そして、フレームレートを徐々に増加させ、視覚的細部や動きの連続性を洗練させます。
- 参考スコア(独自算出の注目度): 84.84187382253644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present TempoMaster, a novel framework that formulates long video generation as next-frame-rate prediction. Specifically, we first generate a low-frame-rate clip that serves as a coarse blueprint of the entire video sequence, and then progressively increase the frame rate to refine visual details and motion continuity. During generation, TempoMaster employs bidirectional attention within each frame-rate level while performing autoregression across frame rates, thus achieving long-range temporal coherence while enabling efficient and parallel synthesis. Extensive experiments demonstrate that TempoMaster establishes a new state-of-the-art in long video generation, excelling in both visual and temporal quality.
- Abstract(参考訳): 我々は,次世代のフレームレート予測として長編ビデオ生成を定式化する新しいフレームワークであるTempoMasterを紹介する。
具体的には、まず、ビデオシーケンス全体の粗い青写真として機能する低フレームレートのクリップを生成し、その後、フレームレートを徐々に増加させ、視覚的詳細や動きの連続性を洗練させる。
生成中、TempoMasterはフレームレート毎に双方向の注意を向け、フレームレート間で自己回帰を行い、より効率的な並列合成を実現するとともに、長距離時間コヒーレンスを実現する。
大規模な実験により、TempoMasterは長いビデオ生成において新しい最先端技術を確立し、視覚的品質と時間的品質の両方に優れたことが示されている。
関連論文リスト
- Video Consistency Distance: Enhancing Temporal Consistency for Image-to-Video Generation via Reward-Based Fine-Tuning [5.847416016271551]
ビデオ拡散モデルの逆ベース微調整は、生成ビデオの品質向上に有効な手法である。
本稿では,時間的一貫性を高めるために,ビデオ一貫性距離(VCD, Video Consistency Distance)を提案する。
論文 参考訳(メタデータ) (2025-10-22T02:59:45Z) - AnchorSync: Global Consistency Optimization for Long Video Editing [8.65329684912554]
AnchorSyncは、高品質で長期的なビデオ編集を可能にする新しい拡散ベースのフレームワークである。
提案手法は,進行的復調過程を通じて構造的整合性を強制し,マルチモーダル誘導による時間的ダイナミクスを保存する。
論文 参考訳(メタデータ) (2025-08-20T10:51:24Z) - Ouroboros-Diffusion: Exploring Consistent Content Generation in Tuning-free Long Video Diffusion [116.40704026922671]
事前訓練されたテキスト・ツー・ビデオモデルに基づいて構築されたファースト・イン・ファースト・アウト(FIFO)ビデオ拡散は,近年,チューニング不要な長ビデオ生成に有効なアプローチとして浮上している。
We propose Ouroboros-Diffusion, a novel video denoising framework designed to enhance structure and content (ject) consistency。
論文 参考訳(メタデータ) (2025-01-15T18:59:15Z) - ReBotNet: Fast Real-time Video Enhancement [59.08038313427057]
ほとんどの復元ネットワークは遅く、高い計算ボトルネックがあり、リアルタイムビデオ拡張には使用できない。
本研究では,ライブビデオ通話やビデオストリームなどの実用的なユースケースをリアルタイムに拡張するための,効率的かつ高速なフレームワークを設計する。
提案手法を評価するために,実世界のビデオ通話とストリーミングのシナリオを示す2つの新しいデータセットをエミュレートし,ReBotNetがより少ない計算,メモリ要求の低減,より高速な推論時間で既存手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-03-23T17:58:05Z) - Towards Smooth Video Composition [59.134911550142455]
ビデオ生成には、時間とともに動的コンテンツを伴う一貫した永続的なフレームが必要である。
本研究は, 生成的対向ネットワーク(GAN)を用いて, 任意の長さの映像を構成するための時間的関係を, 数フレームから無限までモデル化するものである。
単体画像生成のためのエイリアスフリー操作は、適切に学習された知識とともに、フレーム単位の品質を損なうことなく、スムーズなフレーム遷移をもたらすことを示す。
論文 参考訳(メタデータ) (2022-12-14T18:54:13Z) - Enhanced Spatio-Temporal Interaction Learning for Video Deraining: A
Faster and Better Framework [93.37833982180538]
不要な雨がビデオの可視性を阻害し、ほとんどの屋外ビジョンシステムの堅牢性を低下させるため、ビデオ排水はコンピュータビジョンの重要なタスクです。
拡張時空間相互作用ネットワーク(ESTINet)と呼ばれる新しいエンドツーエンドのデラミニングフレームワークを提案する。
ESTINetは、現在の最先端ビデオの画質とスピードを大幅に向上させる。
論文 参考訳(メタデータ) (2021-03-23T05:19:35Z) - All at Once: Temporally Adaptive Multi-Frame Interpolation with Advanced
Motion Modeling [52.425236515695914]
最先端の手法は、一度に1つのフレームを補間する反復解である。
この研究は、真のマルチフレーム補間子を導入している。
時間領域のピラミッドスタイルのネットワークを使用して、複数フレームのタスクをワンショットで完了する。
論文 参考訳(メタデータ) (2020-07-23T02:34:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。