論文の概要: PanFlow: Decoupled Motion Control for Panoramic Video Generation
- arxiv url: http://arxiv.org/abs/2512.00832v1
- Date: Sun, 30 Nov 2025 11:03:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.440223
- Title: PanFlow: Decoupled Motion Control for Panoramic Video Generation
- Title(参考訳): PanFlow:パノラマビデオ生成のための非結合モーション制御
- Authors: Cheng Zhang, Hanwen Liang, Donny Y. Chen, Qianyi Wu, Konstantinos N. Plataniotis, Camilo Cruz Gambardella, Jianfei Cai,
- Abstract要約: PanFlowは、パノラマの球面の性質を利用して、入力光流条件から高度にダイナミックなカメラ回転を分離する新しいアプローチである。
効果的なトレーニングを支援するため,フレームレベルのポーズとフローアノテーションを用いて,大規模なパノラマ動画データセットをキュレートする。
- 参考スコア(独自算出の注目度): 52.47902086091194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Panoramic video generation has attracted growing attention due to its applications in virtual reality and immersive media. However, existing methods lack explicit motion control and struggle to generate scenes with large and complex motions. We propose PanFlow, a novel approach that exploits the spherical nature of panoramas to decouple the highly dynamic camera rotation from the input optical flow condition, enabling more precise control over large and dynamic motions. We further introduce a spherical noise warping strategy to promote loop consistency in motion across panorama boundaries. To support effective training, we curate a large-scale, motion-rich panoramic video dataset with frame-level pose and flow annotations. We also showcase the effectiveness of our method in various applications, including motion transfer and video editing. Extensive experiments demonstrate that PanFlow significantly outperforms prior methods in motion fidelity, visual quality, and temporal coherence. Our code, dataset, and models are available at https://github.com/chengzhag/PanFlow.
- Abstract(参考訳): パノラマビデオ生成は、仮想現実や没入型メディアに応用されているため、注目を集めている。
しかし、既存の手法には明確な動き制御がなく、大きく複雑な動きを持つシーンを生成するのに苦労している。
本研究では,パノラマの球面特性を利用して,入力光流条件から高ダイナミックなカメラ回転を分離する手法を提案する。
さらに,パノラマ境界を横断する運動におけるループの整合性を促進するために,球面ノイズワープ戦略を導入する。
効果的なトレーニングを支援するため,フレームレベルのポーズとフローアノテーションを用いて,大規模なパノラマ動画データセットをキュレートする。
また,モーション転送やビデオ編集など,様々な応用において本手法の有効性を示す。
広汎な実験により、PanFlowは、動きの忠実さ、視覚的品質、時間的コヒーレンスにおいて、従来の方法よりも大幅に優れていた。
私たちのコード、データセット、モデルはhttps://github.com/chengzhag/PanFlow.orgで公開されています。
関連論文リスト
- MotionPro: A Precise Motion Controller for Image-to-Video Generation [108.63100943070592]
我々は、画像間(I2V)生成のための正確なモーションコントローラであるMotionProを提案する。
局所軌道と運動マスクは、微細な運動合成を制御するために用いられる。
WebVid-10MとMC-Benchで行った実験は、MotionProの有効性を実証している。
論文 参考訳(メタデータ) (2025-05-26T17:59:03Z) - MotionFlow: Attention-Driven Motion Transfer in Video Diffusion Models [3.2311303453753033]
動画拡散モデルにおける動き伝達のための新しいフレームワークであるMotionFlowを紹介する。
本手法は,空間的・時間的ダイナミクスを正確に把握し,操作するために,クロスアテンションマップを利用する。
実験の結果,MotionFlowは劇的なシーン変化であっても,忠実度と汎用性の両方で既存モデルよりも優れていた。
論文 参考訳(メタデータ) (2024-12-06T18:59:12Z) - Motion Prompting: Controlling Video Generation with Motion Trajectories [57.049252242807874]
スパースもしくは高密度なビデオ軌跡を条件とした映像生成モデルを訓練する。
ハイレベルなユーザリクエストを,詳細なセミセンスな動作プロンプトに変換する。
我々は、カメラや物体の動き制御、画像との「相互作用」、動画転送、画像編集など、様々な応用を通してアプローチを実証する。
論文 参考訳(メタデータ) (2024-12-03T18:59:56Z) - AnimateAnything: Consistent and Controllable Animation for Video Generation [24.576022028967195]
本稿では,AnimateAnythingという統合制御可能なビデオ生成手法を提案する。
様々な条件にまたがる正確で一貫したビデオ操作を容易にする。
実験により,本手法は最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-16T16:36:49Z) - Puppet-Master: Scaling Interactive Video Generation as a Motion Prior for Part-Level Dynamics [79.4785166021062]
本稿では,対話型ビデオジェネレータPuppet-Masterを紹介した。
Puppet-Masterは、他のモーションコンディショニングビデオジェネレータとは異なり、パートレベルのモーションを生成することを学習している。
Puppet-Masterはドメイン外の実際のイメージを一般化し、実世界のベンチマークで既存のメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-08-08T17:59:38Z) - Animating Pictures with Eulerian Motion Fields [90.30598913855216]
静止画をリアルなアニメーションループ映像に変換する完全自動手法を示す。
流れ水や吹く煙など,連続流体運動の場面を対象とする。
本稿では,前向きと後向きの両方に特徴を流し,その結果をブレンドする新しいビデオループ手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T18:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。