論文の概要: CoWTracker: Tracking by Warping instead of Correlation
- arxiv url: http://arxiv.org/abs/2602.04877v1
- Date: Wed, 04 Feb 2026 18:58:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.701319
- Title: CoWTracker: Tracking by Warping instead of Correlation
- Title(参考訳): CoWTracker: 相関ではなくワープによるトラッキング
- Authors: Zihang Lai, Eldar Insafutdinov, Edgar Sucar, Andrea Vedaldi,
- Abstract要約: ワープに有利なコストを削減できる高密度な点トラッカーを提案する。
近年の光学的流れの進展に触発されて,本手法では,現在の推定値に基づいて,対象フレームからクエリフレームへ特徴を変換することで,トラック推定を反復的に洗練する。
我々のモデルは,TAP-Vid-DAVIS,TAP-Vid-Kinetics,Robo-TAPなど,標準的な高密度点追跡ベンチマークの最先端性能を実現する。
- 参考スコア(独自算出の注目度): 53.834673070954494
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Dense point tracking is a fundamental problem in computer vision, with applications ranging from video analysis to robotic manipulation. State-of-the-art trackers typically rely on cost volumes to match features across frames, but this approach incurs quadratic complexity in spatial resolution, limiting scalability and efficiency. In this paper, we propose \method, a novel dense point tracker that eschews cost volumes in favor of warping. Inspired by recent advances in optical flow, our approach iteratively refines track estimates by warping features from the target frame to the query frame based on the current estimate. Combined with a transformer architecture that performs joint spatiotemporal reasoning across all tracks, our design establishes long-range correspondences without computing feature correlations. Our model is simple and achieves state-of-the-art performance on standard dense point tracking benchmarks, including TAP-Vid-DAVIS, TAP-Vid-Kinetics, and Robo-TAP. Remarkably, the model also excels at optical flow, sometimes outperforming specialized methods on the Sintel, KITTI, and Spring benchmarks. These results suggest that warping-based architectures can unify dense point tracking and optical flow estimation.
- Abstract(参考訳): デンスポイントトラッキングは、ビデオ分析からロボット操作に至るまで、コンピュータビジョンにおける基本的な問題である。
最先端トラッカーは通常、フレーム間の特徴にマッチするコストボリュームに依存するが、このアプローチは空間分解能の2次複雑さを引き起こし、スケーラビリティと効率を制限している。
本稿では, コストを削減し, ワープに有利な新しい高密度点追跡器, \methodを提案する。
近年の光学的流れの進展に触発されて,本手法では,現在の推定値に基づいて,ターゲットフレームからクエリフレームへ特徴を変換することで,トラック推定を反復的に洗練する。
本設計では,全トラックで同時時空間推論を行うトランスフォーマーアーキテクチャと組み合わせて,特徴相関を計算せずに長距離対応を確立する。
我々のモデルは,TAP-Vid-DAVIS,TAP-Vid-Kinetics,Robo-TAPなど,標準的な高密度点追跡ベンチマークの最先端性能を実現する。
注目すべきは、このモデルは光学フローにも優れており、Sintel、KITTI、Springベンチマークの特殊なメソッドよりも優れていることだ。
これらの結果は、ワーピングに基づくアーキテクチャは、高密度点追跡と光フロー推定を統一することができることを示唆している。
関連論文リスト
- AllTracker: Efficient Dense Point Tracking at High Resolution [62.840979507761425]
問合せフレームとビデオの他のフレーム間のフロー場を推定することで、長距離トラックを推定するモデルであるAllTrackerを導入する。
既存の点追跡法とは異なり,本手法は高分解能かつ高密度(全画素)対応フィールドを提供し,フローマップとして可視化することができる。
モデルは高速かつパラメータ効率(16万のパラメータ)で、高解像度で最先端のポイントトラッキング精度を提供する(つまり、40G GPU上で768x1024ピクセルを追跡する)。
論文 参考訳(メタデータ) (2025-06-08T22:55:06Z) - Online Dense Point Tracking with Streaming Memory [54.22820729477756]
デンスポイントトラッキングは、ビデオのかなりの部分を通して、初期フレーム内のすべてのポイントの連続的な追跡を必要とする、困難なタスクである。
最近の点追跡アルゴリズムは、通常、最初のフレームから現在のフレームへの間接的な情報伝達のためにスライドウィンドウに依存する。
我々は、高密度のtextbfPOint textbfTracking とオンラインビデオ処理のための textbfStreaming メモリを備えた軽量で高速なモデルを提案する。
論文 参考訳(メタデータ) (2025-03-09T06:16:49Z) - ProTracker: Probabilistic Integration for Robust and Accurate Point Tracking [41.889032460337226]
ProTrackerは、ビデオ内の任意の点を正確かつ堅牢に追跡する新しいフレームワークである。
この設計は、グローバルな意味情報と時間的に認識される低レベル特徴を効果的に組み合わせている。
実験により、ProTrackerは最適化ベースのアプローチで最先端のパフォーマンスを得ることができた。
論文 参考訳(メタデータ) (2025-01-06T18:55:52Z) - TAPIR: Tracking Any Point with per-frame Initialization and temporal
Refinement [64.11385310305612]
本稿では,ビデオシーケンスを通して任意の物理面上の問合せ点を効果的に追跡する,TAP(Tracking Any Point)の新しいモデルを提案する。
提案手法では,(1)他のフレームの問合せ点に対する適切な候補点マッチングを独立に特定するマッチング段階と,(2)局所的相関に基づいてトラジェクトリと問合せの両方を更新する改良段階の2段階を用いる。
結果として得られたモデルは、DAVISにおける平均約20%の絶対平均ジャカード(AJ)改善によって示されるように、TAP-Vidベンチマークにおける大きなマージンで、すべてのベースライン手法を上回ります。
論文 参考訳(メタデータ) (2023-06-14T17:07:51Z) - MFT: Long-Term Tracking of Every Pixel [0.36832029288386137]
Multi-Flow dense Tracker - 濃密でピクセルレベルの長期追跡のための新しい手法。
連続するフレーム間で推定される光フローを利用する。
追跡は最先端の点追跡法よりも桁違いに高速である。
論文 参考訳(メタデータ) (2023-05-22T13:02:46Z) - Particle Videos Revisited: Tracking Through Occlusions Using Point
Trajectories [29.258861811749103]
我々はSandとTellerの"パーティクルビデオ"アプローチを再検討し、長距離モーション推定問題としてピクセル追跡について検討する。
私たちはこの古典的なアプローチを、現在の最先端のフローとオブジェクトトラッキングを駆動するコンポーネントを使って再構築します。
既存の光学フローデータセットから抽出した長距離アモーダル点軌道を用いてモデルを訓練する。
論文 参考訳(メタデータ) (2022-04-08T16:05:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。