論文の概要: MotionFlow:Learning Implicit Motion Flow for Complex Camera Trajectory Control in Video Generation
- arxiv url: http://arxiv.org/abs/2509.21119v1
- Date: Thu, 25 Sep 2025 13:06:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.920004
- Title: MotionFlow:Learning Implicit Motion Flow for Complex Camera Trajectory Control in Video Generation
- Title(参考訳): モーションフロー:ビデオ生成における複雑なカメラ軌道制御のための入射運動流の学習
- Authors: Guojun Lei, Chi Wang, Yikai Wang, Hong Li, Ying Song, Weiwei Xu,
- Abstract要約: 本稿では,カメラとオブジェクトの動作を,対応する画素の運動に変換することによって統合する新しいアプローチを提案する。
我々のモデルはSOTA法よりも大きなマージンで優れている。
- 参考スコア(独自算出の注目度): 30.528654507198052
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generating videos guided by camera trajectories poses significant challenges in achieving consistency and generalizability, particularly when both camera and object motions are present. Existing approaches often attempt to learn these motions separately, which may lead to confusion regarding the relative motion between the camera and the objects. To address this challenge, we propose a novel approach that integrates both camera and object motions by converting them into the motion of corresponding pixels. Utilizing a stable diffusion network, we effectively learn reference motion maps in relation to the specified camera trajectory. These maps, along with an extracted semantic object prior, are then fed into an image-to-video network to generate the desired video that can accurately follow the designated camera trajectory while maintaining consistent object motions. Extensive experiments verify that our model outperforms SOTA methods by a large margin.
- Abstract(参考訳): カメラトラジェクトリーでガイドされたビデオの生成は、特にカメラとオブジェクトの両方の動きが存在する場合、一貫性と一般化性を達成する上で大きな課題となる。
既存のアプローチはしばしばこれらの動きを別々に学習しようと試み、カメラと物体の間の相対的な動きに関して混乱を引き起こす可能性がある。
この課題に対処するために,カメラとオブジェクトの両方の動作を,対応するピクセルの運動に変換することによって統合する,新しいアプローチを提案する。
安定した拡散ネットワークを利用することで、特定カメラ軌道に関する参照運動マップを効果的に学習する。
これらのマップは、抽出されたセマンティックオブジェクトとともに、画像とビデオのネットワークに入力され、所定のカメラ軌跡を正確に追従し、一貫した物体の動きを維持しながら、所望のビデオを生成する。
大規模な実験により、我々のモデルはSOTA法よりも大きなマージンで優れていることが確認された。
関連論文リスト
- ATI: Any Trajectory Instruction for Controllable Video Generation [25.249489701215467]
本稿では、カメラの動き、オブジェクトレベルの翻訳、きめ細かい局所的な動きをシームレスに統合する、動画生成におけるモーション制御のための統一的なフレームワークを提案する。
提案手法は,事前学習した画像-映像生成モデルの潜在空間にユーザ定義トラジェクトリを投影することにより,凝集性のある解を提供する。
論文 参考訳(メタデータ) (2025-05-28T23:49:18Z) - MotionPro: A Precise Motion Controller for Image-to-Video Generation [108.63100943070592]
我々は、画像間(I2V)生成のための正確なモーションコントローラであるMotionProを提案する。
局所軌道と運動マスクは、微細な運動合成を制御するために用いられる。
WebVid-10MとMC-Benchで行った実験は、MotionProの有効性を実証している。
論文 参考訳(メタデータ) (2025-05-26T17:59:03Z) - C-Drag: Chain-of-Thought Driven Motion Controller for Video Generation [81.4106601222722]
トラジェクティブに基づくモーションコントロールは、制御可能なビデオ生成のための直感的で効率的なアプローチとして登場した。
我々はC-Dragという制御可能なビデオ生成のためのチェーン・オブ・ソート型モーションコントローラを提案する。
本手法は,物体認識モジュールとChain-of-Thoughtベースの動作推論モジュールを含む。
論文 参考訳(メタデータ) (2025-02-27T08:21:03Z) - Image Conductor: Precision Control for Interactive Video Synthesis [90.2353794019393]
映画製作とアニメーション制作は、しばしばカメラの遷移と物体の動きを調整するための洗練された技術を必要とする。
イメージコンダクタ(Image Conductor)は、カメラトランジションとオブジェクトの動きを正確に制御し、単一の画像からビデオアセットを生成する方法である。
論文 参考訳(メタデータ) (2024-06-21T17:55:05Z) - MotionMaster: Training-free Camera Motion Transfer For Video Generation [48.706578330771386]
本稿では,映像中のカメラの動きと物体の動きをアンハングリングする,トレーニング不要な動画移動モデルを提案する。
我々のモデルは、効果的にカメラオブジェクトの動きを分離し、分離されたカメラの動きを広範囲の制御可能なビデオ生成タスクに適用することができる。
論文 参考訳(メタデータ) (2024-04-24T10:28:54Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。