論文の概要: Unified Transformer Tracker for Object Tracking
- arxiv url: http://arxiv.org/abs/2203.15175v1
- Date: Tue, 29 Mar 2022 01:38:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 07:58:45.658183
- Title: Unified Transformer Tracker for Object Tracking
- Title(参考訳): 物体追跡のための統一トランストラッカー
- Authors: Fan Ma, Mike Zheng Shou, Linchao Zhu, Haoqi Fan, Yilei Xu, Yi Yang,
Zhicheng Yan
- Abstract要約: 異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
- 参考スコア(独自算出の注目度): 58.65901124158068
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As an important area in computer vision, object tracking has formed two
separate communities that respectively study Single Object Tracking (SOT) and
Multiple Object Tracking (MOT). However, current methods in one tracking
scenario are not easily adapted to the other due to the divergent training
datasets and tracking objects of both tasks. Although UniTrack
\cite{wang2021different} demonstrates that a shared appearance model with
multiple heads can be used to tackle individual tracking tasks, it fails to
exploit the large-scale tracking datasets for training and performs poorly on
single object tracking. In this work, we present the Unified Transformer
Tracker (UTT) to address tracking problems in different scenarios with one
paradigm. A track transformer is developed in our UTT to track the target in
both SOT and MOT. The correlation between the target and tracking frame
features is exploited to localize the target. We demonstrate that both SOT and
MOT tasks can be solved within this framework. The model can be simultaneously
end-to-end trained by alternatively optimizing the SOT and MOT objectives on
the datasets of individual tasks. Extensive experiments are conducted on
several benchmarks with a unified model trained on SOT and MOT datasets. Code
will be available at https://github.com/Flowerfan/Trackron.
- Abstract(参考訳): コンピュータビジョンの重要な領域として、オブジェクトトラッキングは、それぞれSOT(Single Object Tracking)とMOT(Multiple Object Tracking)の2つの異なるコミュニティを形成している。
しかしながら、1つのトラッキングシナリオにおける現在のメソッドは、分岐したトレーニングデータセットと両方のタスクのオブジェクトを追跡するため、互いに容易に適応できない。
UniTrack \cite{wang2021different} は、複数のヘッドを持つ共有外観モデルが個々のトラッキングタスクに対処できることを示したが、トレーニングのために大規模なトラッキングデータセットを活用できず、単一のオブジェクトトラッキングでは不十分である。
本研究では,異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOTとMOTの両方のターゲットを追跡するために,UTTでトラックトランスフォーマーを開発した。
ターゲットとトラッキングフレームの特徴の相関を利用して、ターゲットをローカライズする。
SOTとMOTの両方のタスクがこのフレームワーク内で解決できることを実証する。
モデルは、個々のタスクのデータセット上でSOTとMOTの目的を最適化することで、同時にエンドツーエンドでトレーニングすることができる。
SOTとMOTデータセットに基づいてトレーニングされた統一モデルを用いて、いくつかのベンチマークで大規模な実験を行う。
コードはhttps://github.com/flowerfan/trackronで入手できる。
関連論文リスト
- HSTrack: Bootstrap End-to-End Multi-Camera 3D Multi-object Tracking with Hybrid Supervision [34.7347336548199]
カメラベースの3Dマルチオブジェクトトラッキング(MOT)では、一般的な手法はトラッキング・バイ・クエリー・プロパゲーションのパラダイムに従っている。
本稿では,HSTrackを提案する。HSTrackは,マルチタスク学習を協調して検出・追跡する新しいプラグイン・アンド・プレイ方式である。
論文 参考訳(メタデータ) (2024-11-11T08:18:49Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - Unifying Tracking and Image-Video Object Detection [54.91658924277527]
TrIVD (Tracking and Image-Video Detection) は、画像OD、ビデオOD、MOTを1つのエンドツーエンドモデルに統合する最初のフレームワークである。
カテゴリラベルの相違やセマンティックな重複に対処するため、TrIVDは対象カテゴリに対する検出/追跡を基礎と理由として定式化している。
論文 参考訳(メタデータ) (2022-11-20T20:30:28Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - InterTrack: Interaction Transformer for 3D Multi-Object Tracking [9.283656931246645]
3Dマルチオブジェクトトラッキング(MOT)は、自動運転車にとって重要な問題である。
提案手法であるInterTrackは,データアソシエーションのための識別対象表現を生成する。
我々はnuScenes 3D MOTベンチマークのアプローチを検証する。
論文 参考訳(メタデータ) (2022-08-17T03:24:36Z) - Track to Detect and Segment: An Online Multi-Object Tracker [81.15608245513208]
TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
論文 参考訳(メタデータ) (2021-03-16T02:34:06Z) - Probabilistic 3D Multi-Modal, Multi-Object Tracking for Autonomous
Driving [22.693895321632507]
異なる訓練可能なモジュールからなる確率的、マルチモーダル、マルチオブジェクトトラッキングシステムを提案する。
本手法はNuScenes Trackingデータセットの現在の状態を上回っていることを示した。
論文 参考訳(メタデータ) (2020-12-26T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。