論文の概要: Unsupervised Deep Representation Learning for Real-Time Tracking
- arxiv url: http://arxiv.org/abs/2007.11984v1
- Date: Wed, 22 Jul 2020 08:23:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 23:04:32.733318
- Title: Unsupervised Deep Representation Learning for Real-Time Tracking
- Title(参考訳): リアルタイムトラッキングのための教師なし深部表現学習
- Authors: Ning Wang and Wengang Zhou and Yibing Song and Chao Ma and Wei Liu and
Houqiang Li
- Abstract要約: 視覚追跡のための教師なし学習手法を提案する。
教師なし学習の動機は、ロバストなトラッカーが双方向トラッキングに有効であるべきだということです。
我々は,シームズ相関フィルタネットワーク上にフレームワークを構築し,教師なし学習を容易にするために,多フレーム検証方式とコスト感受性損失を提案する。
- 参考スコア(独自算出の注目度): 137.69689503237893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advancement of visual tracking has continuously been brought by deep
learning models. Typically, supervised learning is employed to train these
models with expensive labeled data. In order to reduce the workload of manual
annotations and learn to track arbitrary objects, we propose an unsupervised
learning method for visual tracking. The motivation of our unsupervised
learning is that a robust tracker should be effective in bidirectional
tracking. Specifically, the tracker is able to forward localize a target object
in successive frames and backtrace to its initial position in the first frame.
Based on such a motivation, in the training process, we measure the consistency
between forward and backward trajectories to learn a robust tracker from
scratch merely using unlabeled videos. We build our framework on a Siamese
correlation filter network, and propose a multi-frame validation scheme and a
cost-sensitive loss to facilitate unsupervised learning. Without bells and
whistles, the proposed unsupervised tracker achieves the baseline accuracy as
classic fully supervised trackers while achieving a real-time speed.
Furthermore, our unsupervised framework exhibits a potential in leveraging more
unlabeled or weakly labeled data to further improve the tracking accuracy.
- Abstract(参考訳): 視覚追跡の進歩は、ディープラーニングモデルによって継続的に引き継がれている。
通常、教師付き学習は高価なラベル付きデータでこれらのモデルを訓練するために用いられる。
手動アノテーションのワークロードを削減し,任意のオブジェクトを追跡することを学ぶため,視覚追跡のための教師なし学習手法を提案する。
教師なし学習の動機は、堅牢なトラッカーは双方向追跡に効果的であるべきだということです。
具体的には、トラッカは、ターゲットオブジェクトを連続するフレームにローカライズし、最初のフレームの最初の位置までバックトレースすることができる。
このようなモチベーションに基づいて、トレーニングプロセスにおいて、前向きと後向きの軌跡の整合性を測定し、ラベルなしのビデオだけでスクラッチからロバストトラッカーを学習する。
我々は,シームズ相関フィルタネットワーク上にフレームワークを構築し,教師なし学習を容易にするための多フレーム検証手法とコスト感受性損失を提案する。
ベルとホイッスルがなければ、提案した教師なしトラッカーは、リアルタイムな速度を達成しつつ、古典的な完全教師付きトラッカーとしてベースライン精度を達成する。
さらに, 教師なしフレームワークは, よりラベル付きあるいは弱いラベル付きデータを活用することで, 追跡精度をさらに向上させる可能性を示す。
関連論文リスト
- Tracking with Human-Intent Reasoning [64.69229729784008]
この作業では、新しいトラッキングタスクであるインストラクショントラッキングを提案している。
ビデオフレーム内で自動的にトラッキングを実行するようにトラッカーに要求する暗黙の追跡命令を提供する。
TrackGPTは複雑な推論ベースの追跡を行うことができる。
論文 参考訳(メタデータ) (2023-12-29T03:22:18Z) - Unsupervised Learning of Accurate Siamese Tracking [68.58171095173056]
分類枝と回帰枝の両方で時間対応を学習できる新しい教師なし追跡フレームワークを提案する。
トラッカーは、トラッカーネットやLaSOTのような大規模データセット上で、教師なしの手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2022-04-04T13:39:43Z) - Learning to Track Objects from Unlabeled Videos [63.149201681380305]
本稿では,Unsupervised Single Object Tracker (USOT) をスクラッチから学習することを提案する。
教師なしトラッカーと教師なしトラッカーのギャップを狭めるために,3段階からなる効果的な教師なし学習手法を提案する。
実験の結果、未ラベルのビデオから得られたUSOTは、最先端の教師なしトラッカーよりも大きなマージンでうまく機能していることがわかった。
論文 参考訳(メタデータ) (2021-08-28T22:10:06Z) - Self-supervised Object Tracking with Cycle-consistent Siamese Networks [55.040249900677225]
我々は、オブジェクト追跡のためのサイクル一貫性の自己監視フレームワークにおいて、エンドツーエンドのSiameseネットワークを利用する。
トラッキングフレームワークにシームズ領域の提案とマスク回帰ネットワークを統合することで,各フレームのアノテーションを使わずに,より高速で正確なトラッカーを学習できるようにすることを提案する。
論文 参考訳(メタデータ) (2020-08-03T04:10:38Z) - Tracking-by-Trackers with a Distilled and Reinforced Model [24.210580784051277]
コンパクトな学生モデルは、知識蒸留と強化学習の結婚を通じて訓練される。
提案アルゴリズムはリアルタイムの最先端トラッカーと競合する。
論文 参考訳(メタデータ) (2020-07-08T13:24:04Z) - Simple Unsupervised Multi-Object Tracking [11.640210313011876]
本研究では,教師なし再同定ネットワークを提案する。
提案手法(SimpleReID)は,まずSORTを用いて追跡ラベルを生成し,その生成したラベルをクロスエントロピー損失を用いて予測するためにReIDネットワークを訓練する。
トラッキングの監督を使わずにMOT16/17のような一般的なデータセット上で、新しい最先端のパフォーマンスを確立し、0.2-0.3 MOTAと4.4-4.8 IDF1スコアで現在のベスト(CenterTrack)を上回ります。
論文 参考訳(メタデータ) (2020-06-04T01:53:18Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。