論文の概要: Tracking-by-Trackers with a Distilled and Reinforced Model
- arxiv url: http://arxiv.org/abs/2007.04108v2
- Date: Wed, 30 Sep 2020 13:42:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 13:13:55.615062
- Title: Tracking-by-Trackers with a Distilled and Reinforced Model
- Title(参考訳): 希薄化・強化モデルによるトラッカー追従
- Authors: Matteo Dunnhofer, Niki Martinel, Christian Micheloni
- Abstract要約: コンパクトな学生モデルは、知識蒸留と強化学習の結婚を通じて訓練される。
提案アルゴリズムはリアルタイムの最先端トラッカーと競合する。
- 参考スコア(独自算出の注目度): 24.210580784051277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual object tracking was generally tackled by reasoning independently on
fast processing algorithms, accurate online adaptation methods, and fusion of
trackers. In this paper, we unify such goals by proposing a novel tracking
methodology that takes advantage of other visual trackers, offline and online.
A compact student model is trained via the marriage of knowledge distillation
and reinforcement learning. The first allows to transfer and compress tracking
knowledge of other trackers. The second enables the learning of evaluation
measures which are then exploited online. After learning, the student can be
ultimately used to build (i) a very fast single-shot tracker, (ii) a tracker
with a simple and effective online adaptation mechanism, (iii) a tracker that
performs fusion of other trackers. Extensive validation shows that the proposed
algorithms compete with real-time state-of-the-art trackers.
- Abstract(参考訳): ビジュアルオブジェクトのトラッキングは、高速処理アルゴリズム、正確なオンライン適応方法、トラッカーの融合など、独立して行われる。
本稿では,オフラインとオンラインの他のビジュアルトラッカを活用した新しいトラッキング手法を提案することで,目標を統一する。
コンパクトな学生モデルは知識蒸留と強化学習の融合によって訓練される。
1つ目は、他のトラッカーの追跡知識の転送と圧縮を可能にする。
2つ目は、オンラインで活用される評価尺度の学習を可能にする。
学習後、学生は最終的に構築に使用できる
(i)非常に速い単発追跡装置。
(ii)簡易かつ効果的なオンライン適応機構を備えた追跡装置
(iii)他のトラッカーとの融合を行うトラッカー。
大規模な検証の結果,提案アルゴリズムはリアルタイムの最先端トラッカーと競合することがわかった。
関連論文リスト
- CoTracker3: Simpler and Better Point Tracking by Pseudo-Labelling Real Videos [63.90674869153876]
我々はCoTracker3を導入し、新しい追跡モデルと半教師付きトレーニングレシピを新たに導入する。
これにより、トレーニング中にアノテーションを使わずに実際のビデオが使えるようになり、既成の教師を使って擬似ラベルを生成することができる。
モデルはオンライン版とオフライン版で利用可能で、視界や無視された点を確実に追跡できる。
論文 参考訳(メタデータ) (2024-10-15T17:56:32Z) - FACT: Feature Adaptive Continual-learning Tracker for Multiple Object Tracking [22.53374351982883]
我々は、FACT(Feature Adaptive Continual-learning Tracker)と呼ばれる新しいMOTフレームワークを提案する。
FACTは、過去のトラッキング情報をすべて活用して、ターゲットに対するリアルタイムトラッキングと機能学習を可能にする。
我々は、このフレームワークが様々な最先端の機能ベースのトラッカーと統合できることを実証した。
論文 参考訳(メタデータ) (2024-09-12T10:14:48Z) - Tracking with Human-Intent Reasoning [64.69229729784008]
この作業では、新しいトラッキングタスクであるインストラクショントラッキングを提案している。
ビデオフレーム内で自動的にトラッキングを実行するようにトラッカーに要求する暗黙の追跡命令を提供する。
TrackGPTは複雑な推論ベースの追跡を行うことができる。
論文 参考訳(メタデータ) (2023-12-29T03:22:18Z) - TDT: Teaching Detectors to Track without Fully Annotated Videos [2.8292841621378844]
検知と外観の埋め込みの両方を予測するワンステージトラッカーは、多くの注目を集めた。
提案した1段階のソリューションは,2段階のソリューションと品質が一致するが,3倍高速である。
論文 参考訳(メタデータ) (2022-05-11T15:56:17Z) - Recursive Least-Squares Estimator-Aided Online Learning for Visual
Tracking [58.14267480293575]
オフライン学習を必要とせず、簡単な効果的なオンライン学習手法を提案する。
これは、モデルが以前見たオブジェクトに関する知識を記憶するための、内蔵されたメモリ保持メカニズムを可能にする。
我々は、RT-MDNetにおける多層パーセプトロンと、DiMPにおける畳み込みニューラルネットワークの追跡のためのオンライン学習ファミリーにおける2つのネットワークに基づくアプローチを評価する。
論文 参考訳(メタデータ) (2021-12-28T06:51:18Z) - Learning to Track Objects from Unlabeled Videos [63.149201681380305]
本稿では,Unsupervised Single Object Tracker (USOT) をスクラッチから学習することを提案する。
教師なしトラッカーと教師なしトラッカーのギャップを狭めるために,3段階からなる効果的な教師なし学習手法を提案する。
実験の結果、未ラベルのビデオから得られたUSOTは、最先端の教師なしトラッカーよりも大きなマージンでうまく機能していることがわかった。
論文 参考訳(メタデータ) (2021-08-28T22:10:06Z) - Unsupervised Deep Representation Learning for Real-Time Tracking [137.69689503237893]
視覚追跡のための教師なし学習手法を提案する。
教師なし学習の動機は、ロバストなトラッカーが双方向トラッキングに有効であるべきだということです。
我々は,シームズ相関フィルタネットワーク上にフレームワークを構築し,教師なし学習を容易にするために,多フレーム検証方式とコスト感受性損失を提案する。
論文 参考訳(メタデータ) (2020-07-22T08:23:12Z) - Tracking by Instance Detection: A Meta-Learning Approach [99.66119903655711]
本稿では,高性能トラッカー構築のための3段階の原理的手法を提案する。
我々は2つの現代的な検出器であるRetinaNetとFCOSをベースに、Retina-MAMLとFCOS-MAMLという2つのトラッカーを構築した。
両方のトラッカーは40FPSでリアルタイムに動作します。
論文 参考訳(メタデータ) (2020-04-02T05:55:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。