論文の概要: GEN3C: 3D-Informed World-Consistent Video Generation with Precise Camera Control
- arxiv url: http://arxiv.org/abs/2503.03751v1
- Date: Wed, 05 Mar 2025 18:59:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:51:11.873570
- Title: GEN3C: 3D-Informed World-Consistent Video Generation with Precise Camera Control
- Title(参考訳): GEN3C:精密カメラ制御による3Dインフォームド世界一貫性ビデオ生成
- Authors: Xuanchi Ren, Tianchang Shen, Jiahui Huang, Huan Ling, Yifan Lu, Merlin Nimier-David, Thomas Müller, Alexander Keller, Sanja Fidler, Jun Gao,
- Abstract要約: 本稿では,正確なカメラ制御と時間的3次元一貫性を備えた生成ビデオモデルGEN3Cを提案する。
以上の結果から,従来の作業よりも精密なカメラ制御と,スパースビューの新規ビュー合成の最先端結果が得られた。
- 参考スコア(独自算出の注目度): 88.90505842498823
- License:
- Abstract: We present GEN3C, a generative video model with precise Camera Control and temporal 3D Consistency. Prior video models already generate realistic videos, but they tend to leverage little 3D information, leading to inconsistencies, such as objects popping in and out of existence. Camera control, if implemented at all, is imprecise, because camera parameters are mere inputs to the neural network which must then infer how the video depends on the camera. In contrast, GEN3C is guided by a 3D cache: point clouds obtained by predicting the pixel-wise depth of seed images or previously generated frames. When generating the next frames, GEN3C is conditioned on the 2D renderings of the 3D cache with the new camera trajectory provided by the user. Crucially, this means that GEN3C neither has to remember what it previously generated nor does it have to infer the image structure from the camera pose. The model, instead, can focus all its generative power on previously unobserved regions, as well as advancing the scene state to the next frame. Our results demonstrate more precise camera control than prior work, as well as state-of-the-art results in sparse-view novel view synthesis, even in challenging settings such as driving scenes and monocular dynamic video. Results are best viewed in videos. Check out our webpage! https://research.nvidia.com/labs/toronto-ai/GEN3C/
- Abstract(参考訳): 本稿では,正確なカメラ制御と時間的3次元一貫性を備えた生成ビデオモデルGEN3Cを提案する。
以前のビデオモデルは、既に現実的なビデオを生成するが、ほとんど3D情報を活用する傾向にあり、オブジェクトが出現したり出たりするといった不整合につながる。
カメラパラメータはニューラルネットワークへの単なる入力であり、ビデオがカメラにどのように依存するかを推測する必要があるため、カメラ制御は不正確である。
対照的に、GEN3Cは3Dキャッシュにより誘導される:シード画像または以前に生成されたフレームの画素幅の深さを予測して得られる点雲。
次のフレームを生成する際、3Dキャッシュの2DレンダリングにGEN3Cを、ユーザが提供した新しいカメラ軌跡で条件付けする。
これは、gen3Cが以前に生成したものを記憶する必要もなく、カメラのポーズから画像構造を推測する必要もないことを意味している。
その代わり、モデルでは、生成能力の全てを、それまで観測されていなかった領域に集中させ、シーン状態を次のフレームに進めることができる。
本研究は,撮影シーンや単眼動画像などの難易度の設定においても,従来の作業よりも精密なカメラ制御と,スパース・ビュー・ノウ・ビュー・ビュー・シンセサイザーの現況を示すものである。
結果はビデオで一番よく見られる。
https://research.nvidia.com/labs/toronto-ai/GEN3C/
関連論文リスト
- CamCtrl3D: Single-Image Scene Exploration with Precise 3D Camera Control [39.20528937415251]
本稿では,1枚の画像と所定のカメラ軌跡からシーンのフライスルー映像を生成する手法を提案する。
4つの手法を用いて,UNetデノイザをカメラ軌道上に配置する。
私たちは、シーン間のスケール一貫性のために、データセット内のカメラ位置を調整し、シーン探索モデルCamCtrl3Dをトレーニングし、最先端の結果を示します。
論文 参考訳(メタデータ) (2025-01-10T14:37:32Z) - LiftImage3D: Lifting Any Single Image to 3D Gaussians with Video Generation Priors [107.83398512719981]
シングルイメージの3D再構成は、コンピュータビジョンの根本的な課題である。
遅延ビデオ拡散モデルの最近の進歩は、大規模ビデオデータから学ぶ有望な3D事前情報を提供する。
本稿では,LVDMの生成先行情報を効果的にリリースするフレームワークであるLiftImage3Dを提案する。
論文 参考訳(メタデータ) (2024-12-12T18:58:42Z) - Generating 3D-Consistent Videos from Unposed Internet Photos [68.944029293283]
カメラパラメータなどの3Dアノテーションを使わずに,スケーラブルな3D対応ビデオモデルをトレーニングする。
その結果,映像やマルチビューインターネット写真などの2次元データのみを用いて,シーンレベルの3D学習をスケールアップできることが示唆された。
論文 参考訳(メタデータ) (2024-11-20T18:58:31Z) - CamCo: Camera-Controllable 3D-Consistent Image-to-Video Generation [117.16677556874278]
我々はCamCoを導入し、細粒度カメラのポーズ制御を画像からビデオへ生成する。
生成したビデオの3D一貫性を高めるため,各アテンションブロックにエピポーラアテンションモジュールを統合する。
実験の結果,CamCoは従来のモデルに比べて3次元の整合性とカメラ制御能力を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-06-04T17:27:19Z) - Persistent Nature: A Generative Model of Unbounded 3D Worlds [74.51149070418002]
任意のカメラポーズから3Dデコーダとボリュームレンダリングによって描画できる拡張可能な平面配置グリッドを提案する。
この表現に基づいて、単一視点のインターネット写真のみから生成的世界モデルを学ぶ。
提案手法は,現在の3次元生成モデルの固定境界を超えるシーン外挿を可能にするとともに,永続的でカメラに依存しない世界表現をサポートする。
論文 参考訳(メタデータ) (2023-03-23T17:59:40Z) - CAMPARI: Camera-Aware Decomposed Generative Neural Radiance Fields [67.76151996543588]
画像だけでなく,カメラデータ分布を忠実に復元する3次元およびカメラ認識生成モデルについて検討した。
テスト時に、私たちのモデルは、カメラを明示的に制御し、シーンの形状と外観で画像を生成します。
論文 参考訳(メタデータ) (2021-03-31T17:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。