論文の概要: Learning to Track Objects from Unlabeled Videos
- arxiv url: http://arxiv.org/abs/2108.12711v1
- Date: Sat, 28 Aug 2021 22:10:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:42:18.638494
- Title: Learning to Track Objects from Unlabeled Videos
- Title(参考訳): ラベルのないビデオからオブジェクトを追跡する学習
- Authors: Jilai Zheng, Chao Ma, Houwen Peng and Xiaokang Yang
- Abstract要約: 本稿では,Unsupervised Single Object Tracker (USOT) をスクラッチから学習することを提案する。
教師なしトラッカーと教師なしトラッカーのギャップを狭めるために,3段階からなる効果的な教師なし学習手法を提案する。
実験の結果、未ラベルのビデオから得られたUSOTは、最先端の教師なしトラッカーよりも大きなマージンでうまく機能していることがわかった。
- 参考スコア(独自算出の注目度): 63.149201681380305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose to learn an Unsupervised Single Object Tracker
(USOT) from scratch. We identify that three major challenges, i.e., moving
object discovery, rich temporal variation exploitation, and online update, are
the central causes of the performance bottleneck of existing unsupervised
trackers. To narrow the gap between unsupervised trackers and supervised
counterparts, we propose an effective unsupervised learning approach composed
of three stages. First, we sample sequentially moving objects with unsupervised
optical flow and dynamic programming, instead of random cropping. Second, we
train a naive Siamese tracker from scratch using single-frame pairs. Third, we
continue training the tracker with a novel cycle memory learning scheme, which
is conducted in longer temporal spans and also enables our tracker to update
online. Extensive experiments show that the proposed USOT learned from
unlabeled videos performs well over the state-of-the-art unsupervised trackers
by large margins, and on par with recent supervised deep trackers. Code is
available at https://github.com/VISION-SJTU/USOT.
- Abstract(参考訳): 本稿では,Unsupervised Single Object Tracker (USOT) をスクラッチから学習することを提案する。
我々は、オブジェクト発見、リッチな時間的変動回避、オンライン更新という3つの大きな課題が、既存の教師なしトラッカーのパフォーマンスボトルネックの中心的な原因であると特定した。
教師なしトラッカと教師なしトラッカのギャップを狭めるため,3段階からなる効果的な教師なし学習手法を提案する。
まず、ランダムな切り抜きではなく、教師なしの光フローと動的プログラミングで順次動くオブジェクトをサンプリングする。
第2に、単一フレームペアを使用して、ネイティブなSiameseトラッカーをスクラッチからトレーニングする。
第3に,トラッカを長い時間スパンで実行し,オンライン更新を可能にする,新たなサイクルメモリ学習スキームによるトレーニングを継続する。
広範囲にわたる実験の結果、unlabeledビデオから得られたusotは、最先端のunsupervisedトラッカーよりも大きなマージンで、そして最近のsupervised deep trackerと同等の性能を発揮していることがわかった。
コードはhttps://github.com/VISION-SJTU/USOTで入手できる。
関連論文リスト
- CoTracker3: Simpler and Better Point Tracking by Pseudo-Labelling Real Videos [63.90674869153876]
我々はCoTracker3を導入し、新しい追跡モデルと半教師付きトレーニングレシピを新たに導入する。
これにより、トレーニング中にアノテーションを使わずに実際のビデオが使えるようになり、既成の教師を使って擬似ラベルを生成することができる。
モデルはオンライン版とオフライン版で利用可能で、視界や無視された点を確実に追跡できる。
論文 参考訳(メタデータ) (2024-10-15T17:56:32Z) - Walker: Self-supervised Multiple Object Tracking by Walking on Temporal Appearance Graphs [117.67620297750685]
これは、疎結合なボックスアノテーションとトラッキングラベルのないビデオから学習する、初めてのセルフ教師付きトラッカーである。
Walker氏はMOT17、DanceTrack、BDD100Kで競争力を発揮する最初のセルフトラッカーである。
論文 参考訳(メタデータ) (2024-09-25T18:00:00Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - Unsupervised Learning of Accurate Siamese Tracking [68.58171095173056]
分類枝と回帰枝の両方で時間対応を学習できる新しい教師なし追跡フレームワークを提案する。
トラッカーは、トラッカーネットやLaSOTのような大規模データセット上で、教師なしの手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2022-04-04T13:39:43Z) - Unsupervised Deep Representation Learning for Real-Time Tracking [137.69689503237893]
視覚追跡のための教師なし学習手法を提案する。
教師なし学習の動機は、ロバストなトラッカーが双方向トラッキングに有効であるべきだということです。
我々は,シームズ相関フィルタネットワーク上にフレームワークを構築し,教師なし学習を容易にするために,多フレーム検証方式とコスト感受性損失を提案する。
論文 参考訳(メタデータ) (2020-07-22T08:23:12Z) - Tracking-by-Trackers with a Distilled and Reinforced Model [24.210580784051277]
コンパクトな学生モデルは、知識蒸留と強化学習の結婚を通じて訓練される。
提案アルゴリズムはリアルタイムの最先端トラッカーと競合する。
論文 参考訳(メタデータ) (2020-07-08T13:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。