論文の概要: ProTracker: Probabilistic Integration for Robust and Accurate Point Tracking
- arxiv url: http://arxiv.org/abs/2501.03220v1
- Date: Mon, 06 Jan 2025 18:55:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 16:36:52.389353
- Title: ProTracker: Probabilistic Integration for Robust and Accurate Point Tracking
- Title(参考訳): ProTracker:ロバストと正確なポイントトラッキングのための確率的統合
- Authors: Tingyang Zhang, Chen Wang, Zhiyang Dou, Qingzhe Gao, Jiahui Lei, Baoquan Chen, Lingjie Liu,
- Abstract要約: ProTrackerは、ビデオの任意の点の堅牢で正確な長期的追跡のための新しいフレームワークである。
私たちのコードとモデルは、公開時に公開されます。
- 参考スコア(独自算出の注目度): 41.889032460337226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose ProTracker, a novel framework for robust and accurate long-term dense tracking of arbitrary points in videos. The key idea of our method is incorporating probabilistic integration to refine multiple predictions from both optical flow and semantic features for robust short-term and long-term tracking. Specifically, we integrate optical flow estimations in a probabilistic manner, producing smooth and accurate trajectories by maximizing the likelihood of each prediction. To effectively re-localize challenging points that disappear and reappear due to occlusion, we further incorporate long-term feature correspondence into our flow predictions for continuous trajectory generation. Extensive experiments show that ProTracker achieves the state-of-the-art performance among unsupervised and self-supervised approaches, and even outperforms supervised methods on several benchmarks. Our code and model will be publicly available upon publication.
- Abstract(参考訳): 本稿では,ビデオ中の任意の点を頑健かつ高精度に追跡する新しいフレームワークであるProTrackerを提案する。
本手法の鍵となる考え方は,光学的フローとセマンティック特徴の両方から複数の予測を洗練するための確率的統合を組み込むことである。
具体的には,光学的フロー推定を確率論的に統合し,各予測の確率を最大化することにより,スムーズで正確な軌道を導出する。
閉塞により消失・再出現する困難点を効果的に再局在化するため,連続軌道生成のための流れ予測に長期的特徴対応を組み込む。
大規模な実験により、ProTrackerは教師なしおよび自己教師付きアプローチの最先端のパフォーマンスを達成し、いくつかのベンチマークで教師付き手法よりも優れていた。
私たちのコードとモデルは、公開時に公開されます。
関連論文リスト
- Exploring Temporally-Aware Features for Point Tracking [58.63091479730935]
Chronoは、時間的認識を組み込んだポイントトラッキング用に特別に設計された機能バックボーンである。
Chronoは、TAP-Vid-DAVISとTAP-Vid-Kineticsデータセットの洗練されたフリー設定で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-01-21T15:39:40Z) - Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - Self-Supervised Any-Point Tracking by Contrastive Random Walks [17.50529887238381]
我々はグローバルマッチング変換器を訓練し、コントラッシブなランダムウォークを通してビデオを通してサイクル整合性のあるトラックを見つける。
提案手法はTapVidベンチマークで高い性能を達成し,従来の自己教師付きトラッキング手法よりも優れていた。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - RTracker: Recoverable Tracking via PN Tree Structured Memory [71.05904715104411]
本稿では,木構造メモリを用いてトラッカーと検出器を動的に関連付け,自己回復を可能にするRTrackerを提案する。
具体的には,正負と負のターゲットサンプルを時系列に保存し,維持する正負のツリー構造メモリを提案する。
我々の中核となる考え方は、正と負の目標カテゴリーの支持サンプルを用いて、目標損失の信頼性評価のための相対的距離に基づく基準を確立することである。
論文 参考訳(メタデータ) (2024-03-28T08:54:40Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - TrackFlow: Multi-Object Tracking with Normalizing Flows [36.86830078167583]
トラッキング・バイ・ディテクトをマルチモーダル・セッティングに拡張することを目的としている。
3D情報の大まかな見積も利用可能であり、他の伝統的なメトリクスとマージする必要がある。
提案手法は,複数のトラッキング・バイ・検出アルゴリズムの性能を継続的に向上させる。
論文 参考訳(メタデータ) (2023-08-22T15:40:03Z) - Provable Guarantees for Generative Behavior Cloning: Bridging Low-Level
Stability and High-Level Behavior [51.60683890503293]
生成モデルを用いた複雑な専門家による実演の行動クローニングに関する理論的枠組みを提案する。
任意の専門的軌跡の時間ごとのステップ分布に一致するトラジェクトリを生成することができることを示す。
論文 参考訳(メタデータ) (2023-07-27T04:27:26Z) - MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - CoCoLoT: Combining Complementary Trackers in Long-Term Visual Tracking [17.2557973738397]
本稿では,長期追跡性能を向上させるために,補完的な視覚トラッカーの特性を組み合わせたCoCoLoTというフレームワークを提案する。
CoCoLoTは、オンライン学習された深層検証モデルを通じて、トラッカーが対象オブジェクトをフォローしているかどうかを認識し、意思決定ポリシーを起動する。
提案手法は広範に評価され、他のいくつかのソリューションとの比較により、最も人気のある視覚的追跡ベンチマークにおいて最先端の手法と競合することが判明した。
論文 参考訳(メタデータ) (2022-05-09T13:25:13Z) - Video Annotation for Visual Tracking via Selection and Refinement [74.08109740917122]
ビデオシーケンスのバウンディングボックスアノテーションを容易にするための新しいフレームワークを提案する。
目標位置の時間的コヒーレンスを捉えることのできる時間的アセスメントネットワークを提案する。
また、選択したトラッキング結果をさらに強化するために、ビジュアルジオメトリ・リファインメント・ネットワークが設計されている。
論文 参考訳(メタデータ) (2021-08-09T05:56:47Z) - PnPNet: End-to-End Perception and Prediction with Tracking in the Loop [82.97006521937101]
我々は、自動運転車の文脈において、共同認識と運動予測の問題に取り組む。
我々は,入力センサデータとしてエンド・ツー・エンドのモデルであるNetを提案し,各ステップのオブジェクト追跡とその将来レベルを出力する。
論文 参考訳(メタデータ) (2020-05-29T17:57:25Z) - Confidence Trigger Detection: Accelerating Real-time Tracking-by-detection Systems [1.6037469030022993]
信頼強化検出(CTD)は、中間状態によく似たフレームのオブジェクト検出を戦略的に回避する革新的な手法である。
CTDは追跡速度を向上するだけでなく、既存の追跡アルゴリズムを超越して精度も維持する。
本実験はCTDフレームワークの堅牢性と汎用性を実証し,資源制約環境におけるリアルタイムトラッキングの実現の可能性を示した。
論文 参考訳(メタデータ) (2019-02-02T01:52:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。