論文の概要: PointSt3R: Point Tracking through 3D Grounded Correspondence
- arxiv url: http://arxiv.org/abs/2510.26443v1
- Date: Thu, 30 Oct 2025 12:46:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.809731
- Title: PointSt3R: Point Tracking through 3D Grounded Correspondence
- Title(参考訳): PointSt3R:3次元接地対応による点追跡
- Authors: Rhodri Guerrier, Adam W. Harley, Dima Damen,
- Abstract要約: 本研究では,3次元再構成モデルDUSt3RとMASt3Rを接地応答による点追跡に適用することを提案する。
まず、これらのモデルが静的な点に注目するときに、現在の点追跡ベンチマークに現れる競合点トラッカーであることを実証する。
比較的少量の合成データを用いて, 点追跡のためのMASt3Rを微調整する。
- 参考スコア(独自算出の注目度): 28.993755017559383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in foundational 3D reconstruction models, such as DUSt3R and MASt3R, have shown great potential in 2D and 3D correspondence in static scenes. In this paper, we propose to adapt them for the task of point tracking through 3D grounded correspondence. We first demonstrate that these models are competitive point trackers when focusing on static points, present in current point tracking benchmarks ($+33.5\%$ on EgoPoints vs. CoTracker2). We propose to combine the reconstruction loss with training for dynamic correspondence along with a visibility head, and fine-tuning MASt3R for point tracking using a relatively small amount of synthetic data. Importantly, we only train and evaluate on pairs of frames where one contains the query point, effectively removing any temporal context. Using a mix of dynamic and static point correspondences, we achieve competitive or superior point tracking results on four datasets (e.g. competitive on TAP-Vid-DAVIS 73.8 $\delta_{avg}$ / 85.8\% occlusion acc. for PointSt3R compared to 75.7 / 88.3\% for CoTracker2; and significantly outperform CoTracker3 on EgoPoints 61.3 vs 54.2 and RGB-S 87.0 vs 82.8). We also present results on 3D point tracking along with several ablations on training datasets and percentage of dynamic correspondences.
- Abstract(参考訳): DUSt3RやMASt3Rのような基礎的な3次元再構成モデルの最近の進歩は、静的シーンにおける2次元と3次元の対応に大きな可能性を示している。
本稿では,3次元接地対応による点追跡に適応する手法を提案する。
EgoPoints vs. CoTracker2 の現在の点追跡ベンチマーク (+33.5\%$ on EgoPoints vs. CoTracker2) に現れる。
比較的少量の合成データを用いた点追跡のための微調整MASt3Rを提案する。
重要なのは、クエリポイントを含むフレームのペアのみをトレーニングし、評価し、時間的コンテキストを効果的に除去することです。
動的点対応と静的点対応の混合を用いて、4つのデータセット(例えば、TAP-Vid-DAVIS 73.8 $\delta_{avg}$ / 85.8\% のオクルージョン cc で競合する)で競合または優れた点追跡結果を得る。
ポイントSt3Rの場合、CoTracker2は75.7 / 88.3\%、EgoPoints 61.3 対 54.2 と RGB-S 87.0 対 82.8 ではCoTracker3 を上回った。
また,3次元点追跡の結果と,トレーニングデータセットと動的対応率について,いくつかの改善点を提示する。
関連論文リスト
- SpatialTrackerV2: 3D Point Tracking Made Easy [73.0350898700048]
SpaceTrackerV2はモノクロビデオのフィードフォワード3Dポイントトラッキング手法である。
これは、世界空間の3Dモーションをシーン幾何学、カメラエゴモーション、ピクセルワイドオブジェクトモーションに分解する。
このような異種データから幾何学と運動を共同で学習することで、SpatialTrackerV2は既存の3Dトラッキング方法よりも30%優れています。
論文 参考訳(メタデータ) (2025-07-16T17:59:03Z) - St4RTrack: Simultaneous 4D Reconstruction and Tracking in the World [106.91539872943864]
St4RTrackは、RGB入力から世界座標フレーム内の動的ビデオコンテンツを同時に再構成し、追跡するフレームワークである。
静的および動的シーン幾何学の両方をキャプチャして、同じ世界において、同時に両方のポイントマップを予測する。
統合されたデータ駆動フレームワークの有効性と効率を実証し、世界フレームの再構築と追跡のための新しい広範囲なベンチマークを構築します。
論文 参考訳(メタデータ) (2025-04-17T17:55:58Z) - Dynamic Point Maps: A Versatile Representation for Dynamic 3D Reconstruction [56.32589034046427]
本研究では,ダイナミックポイントマップ(DPM)を導入し,モーションセグメンテーション,シーンフロー推定,3次元物体追跡,2次元対応などの4次元タスクをサポートする標準点マップを拡張した。
我々は,合成データと実データを組み合わせたDPM予測器を訓練し,映像深度予測,ダイナミックポイントクラウド再構成,3次元シーンフロー,オブジェクトポーズ追跡,最先端性能の達成など,様々なベンチマークで評価する。
論文 参考訳(メタデータ) (2025-03-20T16:41:50Z) - TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z) - Beyond 3D Siamese Tracking: A Motion-Centric Paradigm for 3D Single
Object Tracking in Point Clouds [39.41305358466479]
LiDARポイントクラウドにおける3Dオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
新しい視点から3D SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-03T14:20:10Z) - Multiple Object Tracking with Mixture Density Networks for Trajectory
Estimation [1.6822770693792826]
トラジェクトリ推定がトラジェクトリ推定の重要要素となりうることを示すとともに、トラジェクトリ推定器であるトラジェクトリ推定器(トラジェクトリ推定器)をリカレント混合密度ネットワークに基づいて提案する。
TrajEをCenterTrack[63]とTracktor[3]の2つの状態に統合する。
MOTChallenge 2017テストセットでの彼らのパフォーマンスは、MOTAスコアで6.3ポイントと0.3ポイント、IDF1で1.8ポイントと3.1ポイント向上し、CenterTrack+TrajE構成で新たな技術状態が設定された。
論文 参考訳(メタデータ) (2021-06-21T09:45:27Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Tracking Objects as Points [83.9217787335878]
同時に検出と追跡を同時に行うアルゴリズムは,最先端技術よりもシンプルで,高速で,高精度である。
トラッカーであるCenterTrackは、前のフレームから一対のイメージと検出に検出モデルを適用します。
CenterTrackはシンプルで、オンライン(未来を覗くことはない)で、リアルタイムだ。
論文 参考訳(メタデータ) (2020-04-02T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。