論文の概要: ProTracker: Probabilistic Integration for Robust and Accurate Point Tracking
- arxiv url: http://arxiv.org/abs/2501.03220v2
- Date: Mon, 10 Mar 2025 02:00:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:50:05.878181
- Title: ProTracker: Probabilistic Integration for Robust and Accurate Point Tracking
- Title(参考訳): ProTracker:ロバストと正確なポイントトラッキングのための確率的統合
- Authors: Tingyang Zhang, Chen Wang, Zhiyang Dou, Qingzhe Gao, Jiahui Lei, Baoquan Chen, Lingjie Liu,
- Abstract要約: ProTrackerは、ビデオ内の任意の点を正確かつ堅牢に追跡する新しいフレームワークである。
この設計は、グローバルな意味情報と時間的に認識される低レベル特徴を効果的に組み合わせている。
実験により、ProTrackerは最適化ベースのアプローチで最先端のパフォーマンスを得ることができた。
- 参考スコア(独自算出の注目度): 41.889032460337226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose ProTracker, a novel framework for accurate and robust long-term dense tracking of arbitrary points in videos. Previous methods relying on global cost volumes effectively handle large occlusions and scene changes but lack precision and temporal awareness. In contrast, local iteration-based methods accurately track smoothly transforming scenes but face challenges with occlusions and drift. To address these issues, we propose a probabilistic framework that marries the strengths of both paradigms by leveraging local optical flow for predictions and refined global heatmaps for observations. This design effectively combines global semantic information with temporally aware low-level features, enabling precise and robust long-term tracking of arbitrary points in videos. Extensive experiments demonstrate that ProTracker attains state-of-the-art performance among optimization-based approaches and surpasses supervised feed-forward methods on multiple benchmarks. The code and model will be released after publication.
- Abstract(参考訳): ProTrackerは,ビデオ中の任意の点を正確にかつ堅牢に追跡する新しいフレームワークである。
従来は、大域的なコストボリュームに依存する手法は、大規模な閉塞やシーンの変更を効果的に扱うが、精度と時間的意識は欠如している。
対照的に、局所的な反復に基づく手法は、スムーズに変化するシーンを正確に追跡するが、閉塞や漂流を伴う課題に直面している。
これらの課題に対処するために,局所的な光流を予測に利用し,観測のためにグローバルな熱マップを改良することにより,両パラダイムの長所をマージする確率的枠組みを提案する。
この設計は、グローバルな意味情報と時間的に認識される低レベルの特徴を効果的に組み合わせ、ビデオ内の任意の点の正確かつ堅牢な長期追跡を可能にする。
ProTrackerは、最適化ベースのアプローチで最先端のパフォーマンスを実現し、複数のベンチマークで教師付きフィードフォワードメソッドを超越している。
コードとモデルは公開後にリリースされる。
関連論文リスト
- Exploring Temporally-Aware Features for Point Tracking [58.63091479730935]
Chronoは、時間的認識を組み込んだポイントトラッキング用に特別に設計された機能バックボーンである。
Chronoは、TAP-Vid-DAVISとTAP-Vid-Kineticsデータセットの洗練されたフリー設定で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-01-21T15:39:40Z) - Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - Self-Supervised Any-Point Tracking by Contrastive Random Walks [17.50529887238381]
我々はグローバルマッチング変換器を訓練し、コントラッシブなランダムウォークを通してビデオを通してサイクル整合性のあるトラックを見つける。
提案手法はTapVidベンチマークで高い性能を達成し,従来の自己教師付きトラッキング手法よりも優れていた。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - RTracker: Recoverable Tracking via PN Tree Structured Memory [71.05904715104411]
本稿では,木構造メモリを用いてトラッカーと検出器を動的に関連付け,自己回復を可能にするRTrackerを提案する。
具体的には,正負と負のターゲットサンプルを時系列に保存し,維持する正負のツリー構造メモリを提案する。
我々の中核となる考え方は、正と負の目標カテゴリーの支持サンプルを用いて、目標損失の信頼性評価のための相対的距離に基づく基準を確立することである。
論文 参考訳(メタデータ) (2024-03-28T08:54:40Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - TrackFlow: Multi-Object Tracking with Normalizing Flows [36.86830078167583]
トラッキング・バイ・ディテクトをマルチモーダル・セッティングに拡張することを目的としている。
3D情報の大まかな見積も利用可能であり、他の伝統的なメトリクスとマージする必要がある。
提案手法は,複数のトラッキング・バイ・検出アルゴリズムの性能を継続的に向上させる。
論文 参考訳(メタデータ) (2023-08-22T15:40:03Z) - Provable Guarantees for Generative Behavior Cloning: Bridging Low-Level
Stability and High-Level Behavior [51.60683890503293]
生成モデルを用いた複雑な専門家による実演の行動クローニングに関する理論的枠組みを提案する。
任意の専門的軌跡の時間ごとのステップ分布に一致するトラジェクトリを生成することができることを示す。
論文 参考訳(メタデータ) (2023-07-27T04:27:26Z) - MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - CoCoLoT: Combining Complementary Trackers in Long-Term Visual Tracking [17.2557973738397]
本稿では,長期追跡性能を向上させるために,補完的な視覚トラッカーの特性を組み合わせたCoCoLoTというフレームワークを提案する。
CoCoLoTは、オンライン学習された深層検証モデルを通じて、トラッカーが対象オブジェクトをフォローしているかどうかを認識し、意思決定ポリシーを起動する。
提案手法は広範に評価され、他のいくつかのソリューションとの比較により、最も人気のある視覚的追跡ベンチマークにおいて最先端の手法と競合することが判明した。
論文 参考訳(メタデータ) (2022-05-09T13:25:13Z) - Video Annotation for Visual Tracking via Selection and Refinement [74.08109740917122]
ビデオシーケンスのバウンディングボックスアノテーションを容易にするための新しいフレームワークを提案する。
目標位置の時間的コヒーレンスを捉えることのできる時間的アセスメントネットワークを提案する。
また、選択したトラッキング結果をさらに強化するために、ビジュアルジオメトリ・リファインメント・ネットワークが設計されている。
論文 参考訳(メタデータ) (2021-08-09T05:56:47Z) - PnPNet: End-to-End Perception and Prediction with Tracking in the Loop [82.97006521937101]
我々は、自動運転車の文脈において、共同認識と運動予測の問題に取り組む。
我々は,入力センサデータとしてエンド・ツー・エンドのモデルであるNetを提案し,各ステップのオブジェクト追跡とその将来レベルを出力する。
論文 参考訳(メタデータ) (2020-05-29T17:57:25Z) - Confidence Trigger Detection: Accelerating Real-time Tracking-by-detection Systems [1.6037469030022993]
信頼強化検出(CTD)は、中間状態によく似たフレームのオブジェクト検出を戦略的に回避する革新的な手法である。
CTDは追跡速度を向上するだけでなく、既存の追跡アルゴリズムを超越して精度も維持する。
本実験はCTDフレームワークの堅牢性と汎用性を実証し,資源制約環境におけるリアルタイムトラッキングの実現の可能性を示した。
論文 参考訳(メタデータ) (2019-02-02T01:52:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。