論文の概要: PostCam: Camera-Controllable Novel-View Video Generation with Query-Shared Cross-Attention
- arxiv url: http://arxiv.org/abs/2511.17185v1
- Date: Fri, 21 Nov 2025 12:05:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.005536
- Title: PostCam: Camera-Controllable Novel-View Video Generation with Query-Shared Cross-Attention
- Title(参考訳): PostCam: クエリ共有型クロスアテンションによるカメラ制御可能なノベルビュービデオ生成
- Authors: Yipeng Chen, Zhichao Ye, Zhenzhou Fang, Xinyu Chen, Xiaoyu Zhang, Jialing Liu, Nan Wang, Haomin Liu, Guofeng Zhang,
- Abstract要約: PostCamは、ダイナミックシーンにおけるカメラトラジェクトリのポストキャプチャ後の編集を可能にする、ノベルビュービデオ生成のためのフレームワークである。
実世界のデータセットと合成データセットの両方の実験により、PostCamは最先端の手法よりも、カメラ制御の精度とビューの一貫性が20%以上向上していることが示された。
- 参考スコア(独自算出の注目度): 13.912161562631722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose PostCam, a framework for novel-view video generation that enables post-capture editing of camera trajectories in dynamic scenes. We find that existing video recapture methods suffer from suboptimal camera motion injection strategies; such suboptimal designs not only limit camera control precision but also result in generated videos that fail to preserve fine visual details from the source video. To achieve more accurate and flexible motion manipulation, PostCam introduces a query-shared cross-attention module. It integrates two distinct forms of control signals: the 6-DoF camera poses and the 2D rendered video frames. By fusing them into a unified representation within a shared feature space, our model can extract underlying motion cues, which enhances both control precision and generation quality. Furthermore, we adopt a two-stage training strategy: the model first learns coarse camera control from pose inputs, and then incorporates visual information to refine motion accuracy and enhance visual fidelity. Experiments on both real-world and synthetic datasets demonstrate that PostCam outperforms state-of-the-art methods by over 20% in camera control precision and view consistency, while achieving the highest video generation quality. Our project webpage is publicly available at: https://cccqaq.github.io/PostCam.github.io/
- Abstract(参考訳): ダイナミックシーンにおけるカメラ軌跡の撮影後編集を可能にする,新規映像生成のためのフレームワークであるPostCamを提案する。
既存のビデオ再キャプチャ手法は、カメラ制御精度を制限するだけでなく、ソースビデオからの細かな視覚的詳細を保存できない映像も生成する。
より正確で柔軟なモーション操作を実現するため、PostCamはクエリ共有のクロスアテンションモジュールを導入した。
6-DoFカメラのポーズと2Dレンダリングされたビデオフレームだ。
共有特徴空間内での統一表現に融合することにより、制御精度と生成品質を両立させる基礎となる動作キューを抽出できる。
さらに、まず、ポーズ入力から粗いカメラ制御を学習し、次に視覚情報を組み込んで、動きの精度を向上し、視力を高める2段階のトレーニング戦略を採用する。
実世界のデータセットと合成データセットの両方の実験では、PostCamは、最高のビデオ生成品質を達成しつつ、カメラ制御の精度とビューの一貫性を20%以上向上させる。
私たちのプロジェクトのWebページは、https://cccqaq.github.io/PostCam.github.io/で公開されています。
関連論文リスト
- ReCamMaster: Camera-Controlled Generative Rendering from A Single Video [72.42376733537925]
ReCamMasterは、カメラ制御された生成ビデオの再レンダリングフレームワークである。
これは、新しいカメラ軌道における入力ビデオのダイナミックなシーンを再現する。
また,ビデオの安定化,超高解像度化,画質向上に有望な応用を見出した。
論文 参考訳(メタデータ) (2025-03-14T17:59:31Z) - AC3D: Analyzing and Improving 3D Camera Control in Video Diffusion Transformers [66.29824750770389]
カメラの動きを第一原理の観点から分析し、正確な3Dカメラ操作を可能にする洞察を明らかにする。
これらの知見を合成して、高度な3Dカメラ制御(AC3D)アーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-11-27T18:49:13Z) - Training-free Camera Control for Video Generation [15.79168688275606]
本稿では,市販ビデオ拡散モデルに対して,カメラの動き制御を実現するためのトレーニングフリーで堅牢なソリューションを提案する。
本手法では,カメラ注釈付きデータセットの教師付き微調整やデータ拡張による自己教師型トレーニングは不要である。
ほとんどの事前訓練されたビデオ拡散モデルでプラグイン・アンド・プレイでき、単一の画像またはテキストプロンプトを入力としてカメラ制御可能なビデオを生成することができる。
論文 参考訳(メタデータ) (2024-06-14T15:33:00Z) - CamCo: Camera-Controllable 3D-Consistent Image-to-Video Generation [117.16677556874278]
我々はCamCoを導入し、細粒度カメラのポーズ制御を画像からビデオへ生成する。
生成したビデオの3D一貫性を高めるため,各アテンションブロックにエピポーラアテンションモジュールを統合する。
実験の結果,CamCoは従来のモデルに比べて3次元の整合性とカメラ制御能力を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-06-04T17:27:19Z) - CameraCtrl: Enabling Camera Control for Text-to-Video Generation [86.36135895375425]
ユーザーがコンテンツをより正確に作成し、編集できるようにするため、制御性はビデオ生成において重要な役割を果たす。
しかし、既存のモデルは、より深い物語のニュアンスを表現するための映画言語として機能するカメラポーズの制御を欠いている。
我々は、ビデオ拡散モデルの正確なカメラポーズ制御を可能にするCameraCtrlを紹介する。
論文 参考訳(メタデータ) (2024-04-02T16:52:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。