論文の概要: PointSt3R: Point Tracking through 3D Grounded Correspondence
- arxiv url: http://arxiv.org/abs/2510.26443v1
- Date: Thu, 30 Oct 2025 12:46:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.809731
- Title: PointSt3R: Point Tracking through 3D Grounded Correspondence
- Title(参考訳): PointSt3R:3次元接地対応による点追跡
- Authors: Rhodri Guerrier, Adam W. Harley, Dima Damen,
- Abstract要約: 本研究では,3次元再構成モデルDUSt3RとMASt3Rを接地応答による点追跡に適用することを提案する。
まず、これらのモデルが静的な点に注目するときに、現在の点追跡ベンチマークに現れる競合点トラッカーであることを実証する。
比較的少量の合成データを用いて, 点追跡のためのMASt3Rを微調整する。
- 参考スコア(独自算出の注目度): 28.993755017559383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in foundational 3D reconstruction models, such as DUSt3R and MASt3R, have shown great potential in 2D and 3D correspondence in static scenes. In this paper, we propose to adapt them for the task of point tracking through 3D grounded correspondence. We first demonstrate that these models are competitive point trackers when focusing on static points, present in current point tracking benchmarks ($+33.5\%$ on EgoPoints vs. CoTracker2). We propose to combine the reconstruction loss with training for dynamic correspondence along with a visibility head, and fine-tuning MASt3R for point tracking using a relatively small amount of synthetic data. Importantly, we only train and evaluate on pairs of frames where one contains the query point, effectively removing any temporal context. Using a mix of dynamic and static point correspondences, we achieve competitive or superior point tracking results on four datasets (e.g. competitive on TAP-Vid-DAVIS 73.8 $\delta_{avg}$ / 85.8\% occlusion acc. for PointSt3R compared to 75.7 / 88.3\% for CoTracker2; and significantly outperform CoTracker3 on EgoPoints 61.3 vs 54.2 and RGB-S 87.0 vs 82.8). We also present results on 3D point tracking along with several ablations on training datasets and percentage of dynamic correspondences.
- Abstract(参考訳): DUSt3RやMASt3Rのような基礎的な3次元再構成モデルの最近の進歩は、静的シーンにおける2次元と3次元の対応に大きな可能性を示している。
本稿では,3次元接地対応による点追跡に適応する手法を提案する。
EgoPoints vs. CoTracker2 の現在の点追跡ベンチマーク (+33.5\%$ on EgoPoints vs. CoTracker2) に現れる。
比較的少量の合成データを用いた点追跡のための微調整MASt3Rを提案する。
重要なのは、クエリポイントを含むフレームのペアのみをトレーニングし、評価し、時間的コンテキストを効果的に除去することです。
動的点対応と静的点対応の混合を用いて、4つのデータセット(例えば、TAP-Vid-DAVIS 73.8 $\delta_{avg}$ / 85.8\% のオクルージョン cc で競合する)で競合または優れた点追跡結果を得る。
ポイントSt3Rの場合、CoTracker2は75.7 / 88.3\%、EgoPoints 61.3 対 54.2 と RGB-S 87.0 対 82.8 ではCoTracker3 を上回った。
また,3次元点追跡の結果と,トレーニングデータセットと動的対応率について,いくつかの改善点を提示する。
関連論文リスト
- SpatialTrackerV2: 3D Point Tracking Made Easy [73.0350898700048]
SpaceTrackerV2はモノクロビデオのフィードフォワード3Dポイントトラッキング手法である。
これは、世界空間の3Dモーションをシーン幾何学、カメラエゴモーション、ピクセルワイドオブジェクトモーションに分解する。
このような異種データから幾何学と運動を共同で学習することで、SpatialTrackerV2は既存の3Dトラッキング方法よりも30%優れています。
論文 参考訳(メタデータ) (2025-07-16T17:59:03Z) - St4RTrack: Simultaneous 4D Reconstruction and Tracking in the World [106.91539872943864]
St4RTrackは、RGB入力から世界座標フレーム内の動的ビデオコンテンツを同時に再構成し、追跡するフレームワークである。
静的および動的シーン幾何学の両方をキャプチャして、同じ世界において、同時に両方のポイントマップを予測する。
統合されたデータ駆動フレームワークの有効性と効率を実証し、世界フレームの再構築と追跡のための新しい広範囲なベンチマークを構築します。
論文 参考訳(メタデータ) (2025-04-17T17:55:58Z) - Dynamic Point Maps: A Versatile Representation for Dynamic 3D Reconstruction [56.32589034046427]
本研究では,ダイナミックポイントマップ(DPM)を導入し,モーションセグメンテーション,シーンフロー推定,3次元物体追跡,2次元対応などの4次元タスクをサポートする標準点マップを拡張した。
我々は,合成データと実データを組み合わせたDPM予測器を訓練し,映像深度予測,ダイナミックポイントクラウド再構成,3次元シーンフロー,オブジェクトポーズ追跡,最先端性能の達成など,様々なベンチマークで評価する。
論文 参考訳(メタデータ) (2025-03-20T16:41:50Z) - TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。