論文の概要: MLV-Edit: Towards Consistent and Highly Efficient Editing for Minute-Level Videos
- arxiv url: http://arxiv.org/abs/2602.02123v1
- Date: Mon, 02 Feb 2026 14:07:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.189046
- Title: MLV-Edit: Towards Consistent and Highly Efficient Editing for Minute-Level Videos
- Title(参考訳): MLV-Edit: 最小レベルビデオの一貫性と高効率な編集を目指して
- Authors: Yangyi Cao, Yuanhang Li, Lan Chen, Qi Mao,
- Abstract要約: MLV-Editは、マイクロレベルのビデオ編集のためのトレーニング不要なフローベースのフレームワークである。
2つのコアモジュールによって促進されるセグメンテーションワイドな編集に、ディバイス・アンド・コンカ戦略を採用している。
時間的安定性と意味的忠実性の観点から、最先端の手法を一貫して上回っている。
- 参考スコア(独自算出の注目度): 4.3184511910208325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose MLV-Edit, a training-free, flow-based framework that address the unique challenges of minute-level video editing. While existing techniques excel in short-form video manipulation, scaling them to long-duration videos remains challenging due to prohibitive computational overhead and the difficulty of maintaining global temporal consistency across thousands of frames. To address this, MLV-Edit employs a divide-and-conquer strategy for segment-wise editing, facilitated by two core modules: Velocity Blend rectifies motion inconsistencies at segment boundaries by aligning the flow fields of adjacent chunks, eliminating flickering and boundary artifacts commonly observed in fragmented video processing; and Attention Sink anchors local segment features to global reference frames, effectively suppressing cumulative structural drift. Extensive quantitative and qualitative experiments demonstrate that MLV-Edit consistently outperforms state-of-the-art methods in terms of temporal stability and semantic fidelity.
- Abstract(参考訳): そこで我々は,マイクロレベルビデオ編集の独特な課題に対処する,トレーニング不要なフローベースフレームワークMLV-Editを提案する。
既存の技術はショートフォームビデオ操作に優れていますが、計算オーバーヘッドの禁止と、数千フレームにわたるグローバルな時間的一貫性の維持が困難であるため、長周期ビデオにスケールすることは依然として困難です。
速度ブレンド(Velocity Blend)は、隣接するチャンクのフローフィールドを整列させ、断片化されたビデオ処理でよく見られるフレッカリングや境界アーチファクトを排除し、セグメント境界における運動の不整合を補正し、アテンションシンクは局所セグメント特徴をグローバル参照フレームに固定し、累積構造的ドリフトを効果的に抑制する。
大規模な量的および質的な実験により、MLV-Editは時間的安定性と意味的忠実性の観点から、最先端の手法を一貫して上回ることを示した。
関連論文リスト
- VRWKV-Editor: Reducing quadratic complexity in transformer-based video editing [0.13381749415517016]
ビデオベース拡散モデルに線形時間アグリゲーションモジュールを統合する新しいビデオ編集モデルであるVRWKV-Editorを導入する。
VRWKV-Editorは、最先端の拡散ベースのビデオ編集方法と比較して最大3.7倍のスピードアップと60%のメモリ使用率を達成する。
論文 参考訳(メタデータ) (2025-09-30T09:30:23Z) - FlowDirector: Training-Free Flow Steering for Precise Text-to-Video Editing [2.7248421583285265]
FlowDirectorは、新しいインバージョンフリーのビデオ編集フレームワークである。
我々のフレームワークは、編集プロセスをデータ空間の直接進化としてモデル化する。
局所的かつ制御可能な編集を実現するために,注意誘導型マスキング機構を導入する。
論文 参考訳(メタデータ) (2025-06-05T13:54:40Z) - Motion-Aware Concept Alignment for Consistent Video Editing [57.08108545219043]
MoCA-Video (Motion-Aware Concept Alignment in Video) は、画像ドメインのセマンティックミキシングとビデオのギャップを埋めるトレーニング不要のフレームワークである。
生成されたビデオとユーザが提供した参照画像が与えられた後、MoCA-Videoは参照画像のセマンティックな特徴をビデオ内の特定のオブジェクトに注入する。
我々は、標準SSIM、画像レベルLPIPS、時間LPIPSを用いてMoCAの性能を評価し、新しいメトリクスCASS(Conceptual Alignment Shift Score)を導入し、ソースプロンプトと修正ビデオフレーム間の視覚的シフトの一貫性と有効性を評価する。
論文 参考訳(メタデータ) (2025-06-01T13:28:04Z) - UVCG: Leveraging Temporal Consistency for Universal Video Protection [27.03089083282734]
悪意ある編集から映像コンテンツを保護するためにユニバーサルビデオ一貫性ガード(UVCG)を提案する。
UVCGは、連続的かつ知覚不能な摂動を導入することで、他のビデオのコンテンツを保護ビデオに埋め込む。
UVCGをLDM(Latent Diffusion Models)の様々なバージョンに適用し、その有効性と複数の編集パイプラインにおける一般化性を評価する。
論文 参考訳(メタデータ) (2024-11-25T08:48:54Z) - VIA: Unified Spatiotemporal Video Adaptation Framework for Global and Local Video Editing [91.60658973688996]
我々は,グローバルなローカルビデオ編集のための統合ビデオ適応フレームワークであるVIAを導入し,一貫したビデオ編集の限界を推し進める。
本研究では,各フレーム内の局所的な一貫性を確保するため,事前学習した画像編集モデルに適応するテスト時間編集適応を設計した。
また,VIAは長時間の映像編集を一貫した時間で行うことができ,ビデオ編集作業が長続きする可能性を秘めていることを示す。
論文 参考訳(メタデータ) (2024-06-18T17:51:37Z) - VidToMe: Video Token Merging for Zero-Shot Video Editing [100.79999871424931]
本稿では,フレーム間で自己注意トークンをマージすることで,生成ビデオの時間的一貫性を高める新しい手法を提案する。
本手法は時間的コヒーレンスを改善し,自己アテンション計算におけるメモリ消費を削減する。
論文 参考訳(メタデータ) (2023-12-17T09:05:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。