論文の概要: GUSOT: Green and Unsupervised Single Object Tracking for Long Video
Sequences
- arxiv url: http://arxiv.org/abs/2207.07629v1
- Date: Fri, 15 Jul 2022 17:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-18 14:12:40.575725
- Title: GUSOT: Green and Unsupervised Single Object Tracking for Long Video
Sequences
- Title(参考訳): GUSOT:長いビデオシーケンスのためのグリーンで教師なしの単一オブジェクト追跡
- Authors: Zhiruo Zhou, Hongyu Fu, Suya You, C.-C. Jay Kuo
- Abstract要約: GUSOTと呼ばれるグリーンで教師なしの単一オブジェクトトラッカーは、リソース制約のある環境下での長いビデオのオブジェクト追跡を目的としている。
GUSOT には、1) オブジェクトの復元、2) 色度に基づく形状の提案の2つの新しいモジュールが含まれている。
我々は,大規模データセットLaSOTを長時間のビデオシーケンスで実験し,GUSOTが軽量な高性能トラッキングソリューションを提供することを示す。
- 参考スコア(独自算出の注目度): 31.600045405499472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised and unsupervised deep trackers that rely on deep learning
technologies are popular in recent years. Yet, they demand high computational
complexity and a high memory cost. A green unsupervised single-object tracker,
called GUSOT, that aims at object tracking for long videos under a
resource-constrained environment is proposed in this work. Built upon a
baseline tracker, UHP-SOT++, which works well for short-term tracking, GUSOT
contains two additional new modules: 1) lost object recovery, and 2)
color-saliency-based shape proposal. They help resolve the tracking loss
problem and offer a more flexible object proposal, respectively. Thus, they
enable GUSOT to achieve higher tracking accuracy in the long run. We conduct
experiments on the large-scale dataset LaSOT with long video sequences, and
show that GUSOT offers a lightweight high-performance tracking solution that
finds applications in mobile and edge computing platforms.
- Abstract(参考訳): 近年,ディープラーニング技術に依存した監視および教師なしのディープトラッカーが普及している。
しかし、それらは高い計算複雑性と高いメモリコストを必要とする。
本研究では,資源制約環境下での長時間ビデオの物体追跡を目的とした,GUSOTと呼ばれるグリーンな単一オブジェクトトラッカーを提案する。
ベースライントラッカであるuhp-sot++上に構築されており、短期追跡に適しており、gusotには2つの新しいモジュールが含まれている。
1)被写体回収の損失、及び
2)カラーサリーエンシーに基づく形状提案。
追跡損失の問題を解決するのに役立ち、より柔軟なオブジェクトの提案を提供する。
これにより、GUSOTは長期にわたって高いトラッキング精度を達成できる。
我々は,大規模データセットであるlasotを長時間ビデオシーケンスで実験し,モバイルおよびエッジコンピューティングプラットフォームでアプリケーションを見つける軽量な高性能トラッキングソリューションを提供することを示す。
関連論文リスト
- Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - Unsupervised Green Object Tracker (GOT) without Offline Pre-training [35.60210259607753]
グリーン・オブジェクト・トラッカー(GOT)と呼ばれる新しい単一物体追跡手法を提案する。
GOTは、最先端の教師なしトラッカーと競合する追跡精度を提供する。
GOTは小さなモデルサイズ(3kパラメータ)と低い推論複雑性(フレームあたり約58万FLOP)を持つ。
論文 参考訳(メタデータ) (2023-09-16T19:00:56Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - Beyond SOT: Tracking Multiple Generic Objects at Once [141.36900362724975]
ジェネリックオブジェクト追跡(ジェネリックオブジェクト追跡、英: Generic Object Tracking、GOT)は、ビデオの最初のフレームでボックスをバウンディングすることによって指定されたターゲットオブジェクトを追跡する問題である。
大規模GOTベンチマークであるLaGOTを導入し,複数のアノテート対象オブジェクトをシーケンス毎に含む。
提案手法は単一オブジェクトのGOTデータセットに対して高い競合性を実現し,TrackingNet上での新たな技術状態が84.4%の成功率で設定されている。
論文 参考訳(メタデータ) (2022-12-22T17:59:19Z) - SOMPT22: A Surveillance Oriented Multi-Pedestrian Tracking Dataset [5.962184741057505]
我々はSOMPT22データセットを紹介した。これは、都市監視のための高さ6-8mのポール上の静止カメラから撮影した注釈付きショートビデオを備えた、複数人の追跡のための新しいセットである。
我々は,新しいデータセット上での検出とreIDネットワークの利用方法について,MOTトラッカーをワンショットと2ステージに分類して分析する。
我々の新しいデータセットの実験結果から、SOTAは依然として高効率には程遠いことが示され、シングルショットトラッカーは高速実行と精度を競合性能と一体化するための良い候補である。
論文 参考訳(メタデータ) (2022-08-04T11:09:19Z) - Single Object Tracking Research: A Survey [44.24280758718638]
本稿では,過去10年間に最も人気の高い追跡フレームワーク2つについて,その理論的根拠と作業について述べる。
本稿では,異なるネットワーク構造に分類したディープラーニングに基づく追跡手法を提案する。
また、追跡問題の課題に対処するための古典的な戦略についても紹介する。
論文 参考訳(メタデータ) (2022-04-25T02:59:15Z) - Learning to Track Objects from Unlabeled Videos [63.149201681380305]
本稿では,Unsupervised Single Object Tracker (USOT) をスクラッチから学習することを提案する。
教師なしトラッカーと教師なしトラッカーのギャップを狭めるために,3段階からなる効果的な教師なし学習手法を提案する。
実験の結果、未ラベルのビデオから得られたUSOTは、最先端の教師なしトラッカーよりも大きなマージンでうまく機能していることがわかった。
論文 参考訳(メタデータ) (2021-08-28T22:10:06Z) - TDIOT: Target-driven Inference for Deep Video Object Tracking [0.2457872341625575]
本研究では,事前訓練したMask R-CNNディープオブジェクト検出器をベースラインとして採用する。
本研究では,Mask R-CNNのFPN-ResNet101バックボーン上に新しい推論アーキテクチャを導入し,検出と追跡を共同で行う。
提案する単一オブジェクトトラッカであるtdiotは、データアソシエーションに外観類似性に基づく時間マッチングを適用する。
論文 参考訳(メタデータ) (2021-03-19T20:45:06Z) - Track to Detect and Segment: An Online Multi-Object Tracker [81.15608245513208]
TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
論文 参考訳(メタデータ) (2021-03-16T02:34:06Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。