論文の概要: DINO-Tracker: Taming DINO for Self-Supervised Point Tracking in a Single Video
- arxiv url: http://arxiv.org/abs/2403.14548v1
- Date: Thu, 21 Mar 2024 16:49:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 13:20:11.478929
- Title: DINO-Tracker: Taming DINO for Self-Supervised Point Tracking in a Single Video
- Title(参考訳): DINO-Tracker:「DINO-Tracker」(動画)
- Authors: Narek Tumanyan, Assaf Singer, Shai Bagon, Tali Dekel,
- Abstract要約: DINO-Trackerは、ビデオの長時間の密集追跡のための新しいフレームワークだ。
単一のビデオ上でのテスト時間トレーニングと、事前トレーニングされたDINO-ViTモデルによって学習された強力なローカライズされたセマンティック機能を組み合わせる。
DINOトラッカーは自己管理手法よりも優れ、最先端のトラッカーと競合する。
- 参考スコア(独自算出の注目度): 20.122867451036086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present DINO-Tracker -- a new framework for long-term dense tracking in video. The pillar of our approach is combining test-time training on a single video, with the powerful localized semantic features learned by a pre-trained DINO-ViT model. Specifically, our framework simultaneously adopts DINO's features to fit to the motion observations of the test video, while training a tracker that directly leverages the refined features. The entire framework is trained end-to-end using a combination of self-supervised losses, and regularization that allows us to retain and benefit from DINO's semantic prior. Extensive evaluation demonstrates that our method achieves state-of-the-art results on known benchmarks. DINO-tracker significantly outperforms self-supervised methods and is competitive with state-of-the-art supervised trackers, while outperforming them in challenging cases of tracking under long-term occlusions.
- Abstract(参考訳): DINO-Tracker - ビデオにおける長時間の高密度トラッキングのための新しいフレームワーク。
我々のアプローチの柱は、DINO-ViTモデルによって学習された強力な局所的セマンティック機能と、単一のビデオ上でのテスト時間トレーニングを組み合わせることである。
具体的には、テストビデオの動作観察に適合するDINOの機能を同時に採用し、改良された機能を直接活用するトラッカーをトレーニングする。
フレームワーク全体は、自己管理された損失と、DINOのセマンティクスから利益を維持するための正規化の組み合わせを使って、エンドツーエンドでトレーニングされています。
広範評価により,本手法は既知のベンチマークで最先端の結果が得られることが示された。
DINOトラッカーは自己管理手法よりも優れており、最先端のトラッカーと競合する一方で、長期の閉塞下での追跡に苦慮するケースでは優れる。
関連論文リスト
- Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Learning to Track Objects from Unlabeled Videos [63.149201681380305]
本稿では,Unsupervised Single Object Tracker (USOT) をスクラッチから学習することを提案する。
教師なしトラッカーと教師なしトラッカーのギャップを狭めるために,3段階からなる効果的な教師なし学習手法を提案する。
実験の結果、未ラベルのビデオから得られたUSOTは、最先端の教師なしトラッカーよりも大きなマージンでうまく機能していることがわかった。
論文 参考訳(メタデータ) (2021-08-28T22:10:06Z) - Video Annotation for Visual Tracking via Selection and Refinement [74.08109740917122]
ビデオシーケンスのバウンディングボックスアノテーションを容易にするための新しいフレームワークを提案する。
目標位置の時間的コヒーレンスを捉えることのできる時間的アセスメントネットワークを提案する。
また、選択したトラッキング結果をさらに強化するために、ビジュアルジオメトリ・リファインメント・ネットワークが設計されている。
論文 参考訳(メタデータ) (2021-08-09T05:56:47Z) - Self-supervised Object Tracking with Cycle-consistent Siamese Networks [55.040249900677225]
我々は、オブジェクト追跡のためのサイクル一貫性の自己監視フレームワークにおいて、エンドツーエンドのSiameseネットワークを利用する。
トラッキングフレームワークにシームズ領域の提案とマスク回帰ネットワークを統合することで,各フレームのアノテーションを使わずに,より高速で正確なトラッカーを学習できるようにすることを提案する。
論文 参考訳(メタデータ) (2020-08-03T04:10:38Z) - Unsupervised Deep Representation Learning for Real-Time Tracking [137.69689503237893]
視覚追跡のための教師なし学習手法を提案する。
教師なし学習の動機は、ロバストなトラッカーが双方向トラッキングに有効であるべきだということです。
我々は,シームズ相関フィルタネットワーク上にフレームワークを構築し,教師なし学習を容易にするために,多フレーム検証方式とコスト感受性損失を提案する。
論文 参考訳(メタデータ) (2020-07-22T08:23:12Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z) - RetinaTrack: Online Single Stage Joint Detection and Tracking [22.351109024452462]
両タスクがミッションクリティカルな自律運転におけるトラッキング・バイ・検出パラダイムに注目した。
本稿では、一般的な単一ステージのRetinaNetアプローチを改良したRetinaTrackと呼ばれる、概念的にシンプルで効率的な検出と追跡のジョイントモデルを提案する。
論文 参考訳(メタデータ) (2020-03-30T23:46:29Z) - Multi-object Tracking via End-to-end Tracklet Searching and Ranking [11.46601533985954]
本稿では,オンライン・エンドツーエンドのトラックレット探索学習プロセスを導入することで,トラックレットの一貫性を最適化する新しい手法を提案する。
トラックレットの出現エンコーダとしてのシーケンスモデルにより、トラッカーは従来のトラックレットアソシエーションベースラインから顕著な性能向上を達成する。
提案手法は,公開検出とオンライン設定を用いたMOT1517チャレンジベンチマークの最先端性も達成している。
論文 参考訳(メタデータ) (2020-03-04T18:46:01Z) - MAST: A Memory-Augmented Self-supervised Tracker [30.160827983527195]
本稿では,既存のベンチマークにおいて,従来の自己監督手法をはるかに上回るアノテーションを伴わない,ビデオ上で訓練された高密度追跡モデルを提案する。
アーキテクチャを重要なメモリコンポーネントで拡張することで、既存のメソッドをさらに改善します。
最初の2つのコントリビューションは、トラヒックトラッキングの標準評価基準に関する教師付き手法と、初めて競合するセルフ教師付きネットワークを提供する。
論文 参考訳(メタデータ) (2020-02-18T18:43:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。