論文の概要: FlowMotion: Training-Free Flow Guidance for Video Motion Transfer
- arxiv url: http://arxiv.org/abs/2603.06289v1
- Date: Fri, 06 Mar 2026 13:48:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.809118
- Title: FlowMotion: Training-Free Flow Guidance for Video Motion Transfer
- Title(参考訳): FlowMotion:ビデオモーション転送のためのトレーニング不要フローガイダンス
- Authors: Zhen Wang, Youcan Xu, Jun Xiao, Long Chen,
- Abstract要約: ビデオモーション転送は、新しいシーンをレンダリングしながら、ソースビデオから動画パターンを継承するターゲットビデオを生成することを目的としている。
既存のトレーニングフリーアプローチは、事前訓練されたT2Vモデルの中間出力に基づいて、モーションガイダンスを構築することに重点を置いている。
本稿では,高速かつフレキシブルな動き伝達を可能にする新しいトレーニングフリーフレームワークであるFlowMotionを紹介する。
- 参考スコア(独自算出の注目度): 18.173266059962845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video motion transfer aims to generate a target video that inherits motion patterns from a source video while rendering new scenes. Existing training-free approaches focus on constructing motion guidance based on the intermediate outputs of pre-trained T2V models, which results in heavy computational overhead and limited flexibility. In this paper, we present FlowMotion, a novel training-free framework that enables efficient and flexible motion transfer by directly leveraging the predicted outputs of flow-based T2V models. Our key insight is that early latent predictions inherently encode rich temporal information. Motivated by this, we propose flow guidance, which extracts motion representations based on latent predictions to align motion patterns between source and generated videos. We further introduce a velocity regularization strategy to stabilize optimization and ensure smooth motion evolution. By operating purely on model predictions, FlowMotion achieves superior time and resource efficiency as well as competitive performance compared with state-of-the-art methods.
- Abstract(参考訳): ビデオモーション転送は、新しいシーンをレンダリングしながら、ソースビデオから動画パターンを継承するターゲットビデオを生成することを目的としている。
既存のトレーニングフリーアプローチは、事前訓練されたT2Vモデルの中間出力に基づいて動き誘導を構築することに重点を置いている。
本稿では,フローベースT2Vモデルの予測出力を直接活用することにより,効率的なフレキシブルな動き伝達を可能にする新しいトレーニングフリーフレームワークであるFlowMotionを提案する。
私たちの重要な洞察は、早期潜伏予測は本質的に豊かな時間情報をエンコードしているということです。
そこで本研究では,遅延予測に基づいて動きの表現を抽出し,ソースと生成ビデオ間の動きパターンの調整を行うフローガイダンスを提案する。
さらに、最適化を安定化し、スムーズな動きの進化を保証するための速度正則化戦略を導入する。
モデル予測を純粋に操作することで、FlowMotionは最先端の手法に比べて優れた時間とリソース効率と競争性能を達成する。
関連論文リスト
- EfficientMT: Efficient Temporal Adaptation for Motion Transfer in Text-to-Video Diffusion Models [73.96414072072048]
既存の動き伝達法は、ガイド生成のための参照ビデオの動作表現を探索した。
本稿では,ビデオモーション転送のための新しい,効率的なエンドツーエンドフレームワークであるEfficientMTを提案する。
我々の実験は, フレキシブルな動作制御性を維持しつつ, 既存の手法よりも効率が良いことを示した。
論文 参考訳(メタデータ) (2025-03-25T05:51:14Z) - Generalizable Implicit Motion Modeling for Video Frame Interpolation [51.966062283735596]
フローベースビデオフレーム補間(VFI)における動きの重要性
本稿では,動きモデリングVFIの新規かつ効果的なアプローチである一般インプリシット・モーション・モデリング(IMM)を紹介する。
我々のGIMMは、正確にモデル化された動きを供給することによって、既存のフローベースVFIワークと容易に統合できる。
論文 参考訳(メタデータ) (2024-07-11T17:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。