論文の概要: V-DPM: 4D Video Reconstruction with Dynamic Point Maps
- arxiv url: http://arxiv.org/abs/2601.09499v1
- Date: Wed, 14 Jan 2026 14:03:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.422077
- Title: V-DPM: 4D Video Reconstruction with Dynamic Point Maps
- Title(参考訳): V-DPM:ダイナミックポイントマップによる4次元映像再構成
- Authors: Edgar Sucar, Eldar Insafutdinov, Zihang Lai, Andrea Vedaldi,
- Abstract要約: ダイナミックポイントマップ(DPM)は動的な3Dコンテンツを表す。
映像入力のためのDPMを表現力の最大化として定式化する方法を示す。
我々は,最近の強力な3D再構成器であるVGGT上にこれらのアイデアを実装した。
- 参考スコア(独自算出の注目度): 53.834673070954494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Powerful 3D representations such as DUSt3R invariant point maps, which encode 3D shape and camera parameters, have significantly advanced feed forward 3D reconstruction. While point maps assume static scenes, Dynamic Point Maps (DPMs) extend this concept to dynamic 3D content by additionally representing scene motion. However, existing DPMs are limited to image pairs and, like DUSt3R, require post processing via optimization when more than two views are involved. We argue that DPMs are more useful when applied to videos and introduce V-DPM to demonstrate this. First, we show how to formulate DPMs for video input in a way that maximizes representational power, facilitates neural prediction, and enables reuse of pretrained models. Second, we implement these ideas on top of VGGT, a recent and powerful 3D reconstructor. Although VGGT was trained on static scenes, we show that a modest amount of synthetic data is sufficient to adapt it into an effective V-DPM predictor. Our approach achieves state of the art performance in 3D and 4D reconstruction for dynamic scenes. In particular, unlike recent dynamic extensions of VGGT such as P3, DPMs recover not only dynamic depth but also the full 3D motion of every point in the scene.
- Abstract(参考訳): 3次元形状とカメラパラメータをエンコードするDUSt3R不変点マップのような強力な3D表現は、フィードフォワード3D再構成を著しく進歩させる。
ポイントマップは静的なシーンを想定するが、ダイナミックポイントマップ(DPM)はこの概念を動的3Dコンテンツに拡張し、シーンの動きを付加的に表現する。
しかし、既存のDPMはイメージペアに限られており、DUSt3Rのように2つ以上のビューが関与する場合、最適化による後処理を必要とする。
我々は、DPMはビデオに適用する場合より有用であり、これを実証するためにV-DPMを導入する。
まず、映像入力のためのDPMを、表現力の最大化、神経予測の促進、事前訓練されたモデルの再利用を可能にする方法で定式化する方法を示す。
第二に、最近の強力な3D再構成器であるVGGT上にこれらのアイデアを実装している。
VGGTは静的な場面で訓練されたものの、有効なV-DPM予測器に適応するのに十分な量の合成データが得られた。
本手法は動的シーンの3次元および4次元再構成における最先端性能を実現する。
特に、最近のP3のようなVGGTの動的拡張とは異なり、DPMは動的深さだけでなく、シーンのすべての点の完全な3D運動も回復する。
関連論文リスト
- VGGT4D: Mining Motion Cues in Visual Geometry Transformers for 4D Scene Reconstruction [15.933288728509337]
VGGT4Dは、3DファウンデーションモデルであるVGGTを拡張して、堅牢な4Dシーン再構築を実現する。
当社のアプローチは,VGGTのグローバルアテンションレイヤが,リッチでレイヤワイドなダイナミックなキューを暗黙的にエンコードしている,という重要な発見に動機付けられています。
本手法は,動的物体分割,カメラポーズ推定,高密度再構成において優れた性能を実現する。
論文 参考訳(メタデータ) (2025-11-25T06:30:22Z) - C4D: 4D Made from 3D through Dual Correspondences [77.04731692213663]
時間的対応を利用して既存の3次元再構成を4Dに拡張するフレームワークであるC4Dを紹介する。
C4Dは、短期光学フローと長期点追跡の2種類の対応をキャプチャする。
我々は、追加の移動情報を提供する動的認識ポイントトラッカーを訓練する。
論文 参考訳(メタデータ) (2025-10-16T17:59:06Z) - D$^2$USt3R: Enhancing 3D Reconstruction for Dynamic Scenes [54.886845755635754]
本研究は動的シーンにおける3次元再構成の課題に対処し,物体の動きが従来の3次元ポイントマップ回帰法の品質を劣化させる。
空間的側面と時間的側面の両方を明示的に組み込むことにより,提案した点マップに対する3次元密度対応のカプセル化に成功した。
論文 参考訳(メタデータ) (2025-04-08T17:59:50Z) - Dynamic Point Maps: A Versatile Representation for Dynamic 3D Reconstruction [56.32589034046427]
本研究では,ダイナミックポイントマップ(DPM)を導入し,モーションセグメンテーション,シーンフロー推定,3次元物体追跡,2次元対応などの4次元タスクをサポートする標準点マップを拡張した。
我々は,合成データと実データを組み合わせたDPM予測器を訓練し,映像深度予測,ダイナミックポイントクラウド再構成,3次元シーンフロー,オブジェクトポーズ追跡,最先端性能の達成など,様々なベンチマークで評価する。
論文 参考訳(メタデータ) (2025-03-20T16:41:50Z) - VGGT: Visual Geometry Grounded Transformer [61.37669770946458]
VGGTは、シーンのすべての重要な3D属性を直接推論するフィードフォワードニューラルネットワークである。
ネットワークは、複数の3Dタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2025-03-14T17:59:47Z) - Shape of Motion: 4D Reconstruction from a Single Video [42.42669078777769]
本稿では,世界座標フレーム内の3次元運動軌跡を明示的かつ永続的に特徴付ける,ジェネリックダイナミックシーンの再構築手法を提案する。
まず,コンパクトなSE(3)モーションベースでシーンの動きを表現することで,3次元動作の低次元構造を利用する。
第2に,単眼深度マップや長距離2Dトラックなどの既成データ駆動の先行データを利用して,これらのノイズを効果的に処理する方法を考案する。
論文 参考訳(メタデータ) (2024-07-18T17:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。