論文の概要: Tracking-by-Trackers with a Distilled and Reinforced Model
- arxiv url: http://arxiv.org/abs/2007.04108v2
- Date: Wed, 30 Sep 2020 13:42:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 13:13:55.615062
- Title: Tracking-by-Trackers with a Distilled and Reinforced Model
- Title(参考訳): 希薄化・強化モデルによるトラッカー追従
- Authors: Matteo Dunnhofer, Niki Martinel, Christian Micheloni
- Abstract要約: コンパクトな学生モデルは、知識蒸留と強化学習の結婚を通じて訓練される。
提案アルゴリズムはリアルタイムの最先端トラッカーと競合する。
- 参考スコア(独自算出の注目度): 24.210580784051277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual object tracking was generally tackled by reasoning independently on
fast processing algorithms, accurate online adaptation methods, and fusion of
trackers. In this paper, we unify such goals by proposing a novel tracking
methodology that takes advantage of other visual trackers, offline and online.
A compact student model is trained via the marriage of knowledge distillation
and reinforcement learning. The first allows to transfer and compress tracking
knowledge of other trackers. The second enables the learning of evaluation
measures which are then exploited online. After learning, the student can be
ultimately used to build (i) a very fast single-shot tracker, (ii) a tracker
with a simple and effective online adaptation mechanism, (iii) a tracker that
performs fusion of other trackers. Extensive validation shows that the proposed
algorithms compete with real-time state-of-the-art trackers.
- Abstract(参考訳): ビジュアルオブジェクトのトラッキングは、高速処理アルゴリズム、正確なオンライン適応方法、トラッカーの融合など、独立して行われる。
本稿では,オフラインとオンラインの他のビジュアルトラッカを活用した新しいトラッキング手法を提案することで,目標を統一する。
コンパクトな学生モデルは知識蒸留と強化学習の融合によって訓練される。
1つ目は、他のトラッカーの追跡知識の転送と圧縮を可能にする。
2つ目は、オンラインで活用される評価尺度の学習を可能にする。
学習後、学生は最終的に構築に使用できる
(i)非常に速い単発追跡装置。
(ii)簡易かつ効果的なオンライン適応機構を備えた追跡装置
(iii)他のトラッカーとの融合を行うトラッカー。
大規模な検証の結果,提案アルゴリズムはリアルタイムの最先端トラッカーと競合することがわかった。
関連論文リスト
- Tracking with Human-Intent Reasoning [64.69229729784008]
この作業では、新しいトラッキングタスクであるインストラクショントラッキングを提案している。
ビデオフレーム内で自動的にトラッキングを実行するようにトラッカーに要求する暗黙の追跡命令を提供する。
TrackGPTは複雑な推論ベースの追跡を行うことができる。
論文 参考訳(メタデータ) (2023-12-29T03:22:18Z) - TDT: Teaching Detectors to Track without Fully Annotated Videos [2.8292841621378844]
検知と外観の埋め込みの両方を予測するワンステージトラッカーは、多くの注目を集めた。
提案した1段階のソリューションは,2段階のソリューションと品質が一致するが,3倍高速である。
論文 参考訳(メタデータ) (2022-05-11T15:56:17Z) - Joint Feature Learning and Relation Modeling for Tracking: A One-Stream
Framework [76.70603443624012]
特徴学習と関係モデリングを統合した新しい一ストリーム追跡(OSTrack)フレームワークを提案する。
このようにして、相互誘導により識別的目標指向特徴を動的に抽出することができる。
OSTrackは、複数のベンチマークで最先端のパフォーマンスを実現しており、特に、ワンショットトラッキングベンチマークのGOT-10kでは印象的な結果を示している。
論文 参考訳(メタデータ) (2022-03-22T18:37:11Z) - Recursive Least-Squares Estimator-Aided Online Learning for Visual
Tracking [58.14267480293575]
オフライン学習を必要とせず、簡単な効果的なオンライン学習手法を提案する。
これは、モデルが以前見たオブジェクトに関する知識を記憶するための、内蔵されたメモリ保持メカニズムを可能にする。
我々は、RT-MDNetにおける多層パーセプトロンと、DiMPにおける畳み込みニューラルネットワークの追跡のためのオンライン学習ファミリーにおける2つのネットワークに基づくアプローチを評価する。
論文 参考訳(メタデータ) (2021-12-28T06:51:18Z) - Learning to Track Objects from Unlabeled Videos [63.149201681380305]
本稿では,Unsupervised Single Object Tracker (USOT) をスクラッチから学習することを提案する。
教師なしトラッカーと教師なしトラッカーのギャップを狭めるために,3段階からなる効果的な教師なし学習手法を提案する。
実験の結果、未ラベルのビデオから得られたUSOTは、最先端の教師なしトラッカーよりも大きなマージンでうまく機能していることがわかった。
論文 参考訳(メタデータ) (2021-08-28T22:10:06Z) - Unsupervised Deep Representation Learning for Real-Time Tracking [137.69689503237893]
視覚追跡のための教師なし学習手法を提案する。
教師なし学習の動機は、ロバストなトラッカーが双方向トラッキングに有効であるべきだということです。
我々は,シームズ相関フィルタネットワーク上にフレームワークを構築し,教師なし学習を容易にするために,多フレーム検証方式とコスト感受性損失を提案する。
論文 参考訳(メタデータ) (2020-07-22T08:23:12Z) - Tracking by Instance Detection: A Meta-Learning Approach [99.66119903655711]
本稿では,高性能トラッカー構築のための3段階の原理的手法を提案する。
我々は2つの現代的な検出器であるRetinaNetとFCOSをベースに、Retina-MAMLとFCOS-MAMLという2つのトラッカーを構築した。
両方のトラッカーは40FPSでリアルタイムに動作します。
論文 参考訳(メタデータ) (2020-04-02T05:55:06Z) - RetinaTrack: Online Single Stage Joint Detection and Tracking [22.351109024452462]
両タスクがミッションクリティカルな自律運転におけるトラッキング・バイ・検出パラダイムに注目した。
本稿では、一般的な単一ステージのRetinaNetアプローチを改良したRetinaTrackと呼ばれる、概念的にシンプルで効率的な検出と追跡のジョイントモデルを提案する。
論文 参考訳(メタデータ) (2020-03-30T23:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。