論文の概要: TrajVG: 3D Trajectory-Coupled Visual Geometry Learning
- arxiv url: http://arxiv.org/abs/2602.04439v1
- Date: Wed, 04 Feb 2026 11:13:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.496277
- Title: TrajVG: 3D Trajectory-Coupled Visual Geometry Learning
- Title(参考訳): TrajVG:3次元軌道結合型視覚幾何学学習
- Authors: Xingyu Miao, Weiguang Zhao, Tao Lu, Linning Yu, Mulin Yu, Yang Long, Jiangmiao Pang, Junting Dong,
- Abstract要約: TrajVGは、クロスフレームな3D対応を明示する再構築フレームワークである。
擬似2次元トラックのみを用いて,同じ結合制約を自己教師対象に再構成する。
3Dトラッキング、ポーズ推定、ポイントマップ再構成、ビデオ深度による実験は、TrajVGが現在のフィードフォワードのパフォーマンスベースラインを上回っていることを示している。
- 参考スコア(独自算出の注目度): 29.077085350691338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feed-forward multi-frame 3D reconstruction models often degrade on videos with object motion. Global-reference becomes ambiguous under multiple motions, while the local pointmap relies heavily on estimated relative poses and can drift, causing cross-frame misalignment and duplicated structures. We propose TrajVG, a reconstruction framework that makes cross-frame 3D correspondence an explicit prediction by estimating camera-coordinate 3D trajectories. We couple sparse trajectories, per-frame local point maps, and relative camera poses with geometric consistency objectives: (i) bidirectional trajectory-pointmap consistency with controlled gradient flow, and (ii) a pose consistency objective driven by static track anchors that suppresses gradients from dynamic regions. To scale training to in-the-wild videos where 3D trajectory labels are scarce, we reformulate the same coupling constraints into self-supervised objectives using only pseudo 2D tracks, enabling unified training with mixed supervision. Extensive experiments across 3D tracking, pose estimation, pointmap reconstruction, and video depth show that TrajVG surpasses the current feedforward performance baseline.
- Abstract(参考訳): フィードフォワードの多フレーム3D再構成モデルは、しばしばオブジェクトの動きを持つビデオで劣化する。
グローバル参照は複数の動きにおいて曖昧になるが、局所的なポイントマップは推定された相対的なポーズに大きく依存し、ドリフトし、クロスフレームのミスアライメントと重複構造を引き起こす。
我々は,カメラ座標3次元軌跡を推定することにより,フレーム間3次元対応を明示的な予測にするための再構成フレームワークであるTrajVGを提案する。
粗い軌跡、フレームごとの局所点マップ、および幾何学的整合性のある相対カメラポーズを結合する。
一 制御勾配流による双方向軌跡点の整合性、及び
(ii)動的領域からの勾配を抑制する静的トラックアンカーによって駆動されるポーズ一貫性の目標。
3Dトラジェクトリラベルが不足しているWildビデオにトレーニングを拡大するため、擬似2Dトラックのみを用いて、同一の結合制約を自己監督対象に再構成し、混在したトレーニングを可能にする。
3Dトラッキング、ポーズ推定、ポイントマップ再構成、ビデオ深度といった広範な実験により、TrajVGが現在のフィードフォワードのパフォーマンスベースラインを上回っていることが示された。
関連論文リスト
- SpatialTrackerV2: 3D Point Tracking Made Easy [73.0350898700048]
SpaceTrackerV2はモノクロビデオのフィードフォワード3Dポイントトラッキング手法である。
これは、世界空間の3Dモーションをシーン幾何学、カメラエゴモーション、ピクセルワイドオブジェクトモーションに分解する。
このような異種データから幾何学と運動を共同で学習することで、SpatialTrackerV2は既存の3Dトラッキング方法よりも30%優れています。
論文 参考訳(メタデータ) (2025-07-16T17:59:03Z) - St4RTrack: Simultaneous 4D Reconstruction and Tracking in the World [106.91539872943864]
St4RTrackは、RGB入力から世界座標フレーム内の動的ビデオコンテンツを同時に再構成し、追跡するフレームワークである。
静的および動的シーン幾何学の両方をキャプチャして、同じ世界において、同時に両方のポイントマップを予測する。
統合されたデータ駆動フレームワークの有効性と効率を実証し、世界フレームの再構築と追跡のための新しい広範囲なベンチマークを構築します。
論文 参考訳(メタデータ) (2025-04-17T17:55:58Z) - POMATO: Marrying Pointmap Matching with Temporal Motion for Dynamic 3D Reconstruction [53.19968902152528]
POMATOは時間運動と一致する点マップを結合して動的3次元再構成を実現するための統合フレームワークである。
具体的には,RGB画素を動的および静的の両方の領域から3次元ポイントマップにマッピングすることで,明示的なマッチング関係を学習する。
本稿では,複数の下流タスクにまたがる顕著な性能を示すことによって,提案したポイントマップマッチングと時間融合のパラダイムの有効性を示す。
論文 参考訳(メタデータ) (2025-04-08T05:33:13Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。