論文の概要: AllTracker: Efficient Dense Point Tracking at High Resolution
- arxiv url: http://arxiv.org/abs/2506.07310v1
- Date: Sun, 08 Jun 2025 22:55:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.759663
- Title: AllTracker: Efficient Dense Point Tracking at High Resolution
- Title(参考訳): AllTracker: 高解像度で高効率なDense Point Tracking
- Authors: Adam W. Harley, Yang You, Xinglong Sun, Yang Zheng, Nikhil Raghuraman, Yunqi Gu, Sheldon Liang, Wen-Hsuan Chu, Achal Dave, Pavel Tokmakov, Suya You, Rares Ambrus, Katerina Fragkiadaki, Leonidas J. Guibas,
- Abstract要約: AllTrackerは、クエリフレームとビデオの他のフレーム間のフローフィールドを推定する方法によって、長距離トラックを推定するモデルである。
既存の点追跡法とは異なり,本手法は高分解能かつ高密度(全画素)対応フィールドを提供し,フローマップとして可視化することができる。
- 参考スコア(独自算出の注目度): 62.840979507761425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce AllTracker: a model that estimates long-range point tracks by way of estimating the flow field between a query frame and every other frame of a video. Unlike existing point tracking methods, our approach delivers high-resolution and dense (all-pixel) correspondence fields, which can be visualized as flow maps. Unlike existing optical flow methods, our approach corresponds one frame to hundreds of subsequent frames, rather than just the next frame. We develop a new architecture for this task, blending techniques from existing work in optical flow and point tracking: the model performs iterative inference on low-resolution grids of correspondence estimates, propagating information spatially via 2D convolution layers, and propagating information temporally via pixel-aligned attention layers. The model is fast and parameter-efficient (16 million parameters), and delivers state-of-the-art point tracking accuracy at high resolution (i.e., tracking 768x1024 pixels, on a 40G GPU). A benefit of our design is that we can train on a wider set of datasets, and we find that doing so is crucial for top performance. We provide an extensive ablation study on our architecture details and training recipe, making it clear which details matter most. Our code and model weights are available at https://alltracker.github.io .
- Abstract(参考訳): 問合せフレームとビデオの他のフレーム間のフロー場を推定することで、長距離トラックを推定するモデルであるAllTrackerを紹介した。
既存の点追跡法とは異なり,本手法は高分解能かつ高密度(全画素)対応フィールドを提供し,フローマップとして可視化することができる。
既存の光学フロー法とは異なり、本手法は次のフレームではなく、数百のフレームに対応する。
本手法は,2次元畳み込み層を介して空間的に情報を伝播し,画素アラインアテンション層を介して情報を時空間的に伝播する。
モデルは高速かつパラメータ効率(16万のパラメータ)で、高解像度(40G GPUで768x1024ピクセルを追跡する)で最先端のポイントトラッキングの精度を提供する。
私たちの設計の利点は、より広いデータセットのセットでトレーニングできることです。
アーキテクチャの詳細とトレーニングのレシピについて、広範囲にわたるアブレーション調査を行い、どの詳細が最も重要かを明らかにします。
私たちのコードとモデルの重み付けはhttps://alltracker.github.io.orgで公開されています。
関連論文リスト
- Track-On: Transformer-based Online Point Tracking with Memory [34.744546679670734]
オンラインの長期点追跡用に設計されたシンプルなトランスフォーマーベースのモデルであるTrack-Onを紹介する。
フル・テンポラル・モデリングに依存する従来の手法とは異なり、我々のモデルは将来のフレームにアクセスすることなくビデオ・フレームを慎重に処理する。
推測時に、高い精度で対応点とトラックポイントを識別するためにパッチ分類と改良を用いる。
論文 参考訳(メタデータ) (2025-01-30T17:04:11Z) - Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - TAPIR: Tracking Any Point with per-frame Initialization and temporal
Refinement [64.11385310305612]
本稿では,ビデオシーケンスを通して任意の物理面上の問合せ点を効果的に追跡する,TAP(Tracking Any Point)の新しいモデルを提案する。
提案手法では,(1)他のフレームの問合せ点に対する適切な候補点マッチングを独立に特定するマッチング段階と,(2)局所的相関に基づいてトラジェクトリと問合せの両方を更新する改良段階の2段階を用いる。
結果として得られたモデルは、DAVISにおける平均約20%の絶対平均ジャカード(AJ)改善によって示されるように、TAP-Vidベンチマークにおける大きなマージンで、すべてのベースライン手法を上回ります。
論文 参考訳(メタデータ) (2023-06-14T17:07:51Z) - Particle Videos Revisited: Tracking Through Occlusions Using Point
Trajectories [29.258861811749103]
我々はSandとTellerの"パーティクルビデオ"アプローチを再検討し、長距離モーション推定問題としてピクセル追跡について検討する。
私たちはこの古典的なアプローチを、現在の最先端のフローとオブジェクトトラッキングを駆動するコンポーネントを使って再構築します。
既存の光学フローデータセットから抽出した長距離アモーダル点軌道を用いてモデルを訓練する。
論文 参考訳(メタデータ) (2022-04-08T16:05:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。