論文の概要: Beyond SOT: It's Time to Track Multiple Generic Objects at Once
- arxiv url: http://arxiv.org/abs/2212.11920v1
- Date: Thu, 22 Dec 2022 17:59:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 15:03:38.399058
- Title: Beyond SOT: It's Time to Track Multiple Generic Objects at Once
- Title(参考訳): SOTを超えて: 複数のジェネリックオブジェクトを一度に追跡する時が来た
- Authors: Christoph Mayer and Martin Danelljan and Ming-Hsuan Yang and Vittorio
Ferrari and Luc Van Gool and Alina Kuznetsova
- Abstract要約: ジェネリックオブジェクト追跡(ジェネリックオブジェクト追跡、英: Generic Object Tracking、GOT)は、ビデオの最初のフレームでボックスをバウンディングすることによって指定されたターゲットオブジェクトを追跡する問題である。
大規模GOTベンチマークであるLaGOTを導入し,複数のアノテート対象オブジェクトをシーケンス毎に含む。
また,共有計算による複数オブジェクトの協調処理が可能なトランスフォーマーベース GOT トラッカー TaMOS を提案する。
- 参考スコア(独自算出の注目度): 163.83813081556158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generic Object Tracking (GOT) is the problem of tracking target objects,
specified by bounding boxes in the first frame of a video. While the task has
received much attention in the last decades, researchers have almost
exclusively focused on the single object setting. Multi-object GOT benefits
from a wider applicability, rendering it more attractive in real-world
applications. We attribute the lack of research interest into this problem to
the absence of suitable benchmarks. In this work, we introduce a new
large-scale GOT benchmark, LaGOT, containing multiple annotated target objects
per sequence. Our benchmark allows researchers to tackle key remaining
challenges in GOT, aiming to increase robustness and reduce computation through
joint tracking of multiple objects simultaneously. Furthermore, we propose a
Transformer-based GOT tracker TaMOS capable of joint processing of multiple
objects through shared computation. TaMOs achieves a 4x faster run-time in case
of 10 concurrent objects compared to tracking each object independently and
outperforms existing single object trackers on our new benchmark. Finally,
TaMOs achieves highly competitive results on single-object GOT datasets,
setting a new state-of-the-art on TrackingNet with a success rate AUC of 84.4%.
Our benchmark, code, and trained models will be made publicly available.
- Abstract(参考訳): 汎用オブジェクトトラッキング(got)は、ビデオの最初のフレームのバウンディングボックスによって特定される対象オブジェクトを追跡する問題である。
このタスクは過去数十年で大きな注目を集めてきたが、研究者はほとんどが単一のオブジェクトの設定に集中している。
マルチオブジェクトは、より広い適用性から恩恵を受け、現実世界のアプリケーションでより魅力的になる。
この問題に対する研究の関心の欠如は、適切なベンチマークがないためである。
本研究では,複数のアノテート対象オブジェクトをシーケンス毎に含む大規模GOTベンチマークLaGOTを提案する。
本ベンチマークでは,複数オブジェクトの同時追跡によるロバスト性の向上と計算量の削減を目標として,GOTにおける重要な課題に取り組むことができる。
さらに,共有計算による複数オブジェクトの協調処理が可能なトランスフォーマーベースの GOT トラッカー TaMOS を提案する。
TaMOsは、各オブジェクトを独立して追跡するのに対し、10の並列オブジェクトの場合4倍高速な実行を実現し、新しいベンチマークで既存の単一オブジェクトトラッカーより優れています。
最後に、TaMOsはシングルオブジェクトのGOTデータセットで高い競争力を発揮し、TrackingNet上で新しい最先端をAUCの84.4%で設定する。
私たちのベンチマーク、コード、トレーニングされたモデルが公開される予定だ。
関連論文リスト
- UnsMOT: Unified Framework for Unsupervised Multi-Object Tracking with
Geometric Topology Guidance [6.577227592760559]
UnsMOTは、オブジェクトの外観と運動の特徴と幾何学的情報を組み合わせて、より正確なトラッキングを提供する新しいフレームワークである。
実験結果から, HOTA, IDF1, MOTAの計測値において, 最先端手法と比較して顕著な性能を示した。
論文 参考訳(メタデータ) (2023-09-03T04:58:12Z) - DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - BURST: A Benchmark for Unifying Object Recognition, Segmentation and
Tracking in Video [58.71785546245467]
複数の既存のベンチマークには、ビデオ内のオブジェクトのトラッキングとセグメンテーションが含まれる。
異なるベンチマークデータセットとメトリクスを使用するため、それらの相互作用はほとんどありません。
高品質なオブジェクトマスクを備えた数千の多様なビデオを含むデータセットであるBURSTを提案する。
すべてのタスクは、同じデータと同等のメトリクスを使って評価されます。
論文 参考訳(メタデータ) (2022-09-25T01:27:35Z) - Few-shot Object Counting and Detection [25.61294147822642]
我々は、ターゲットオブジェクトクラスのいくつかの例のバウンディングボックスを考慮に入れ、ターゲットクラスのすべてのオブジェクトをカウントし、検出する新しいタスクに取り組む。
このタスクは、数ショットのオブジェクトカウントと同じ監督を共有しますが、オブジェクトのバウンディングボックスと総オブジェクトカウントを出力します。
本稿では,新しい2段階トレーニング戦略と,新しい不確実性に留意した小ショットオブジェクト検出器であるCounting-DETRを紹介する。
論文 参考訳(メタデータ) (2022-07-22T10:09:18Z) - Cannot See the Forest for the Trees: Aggregating Multiple Viewpoints to
Better Classify Objects in Videos [36.28269135795851]
本稿では,トラックレットに含まれる複数の視点から情報を集約することで,トラックレットの分類精度を向上させる集合分類器を提案する。
ResNet-101上のQDTrackにメソッドをアタッチするだけで、TAOの検証とテストセットで19.9%と15.7%のTrackAP_50という新しい最先端を実現できます。
論文 参考訳(メタデータ) (2022-06-05T07:51:58Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z) - MOTChallenge: A Benchmark for Single-Camera Multiple Target Tracking [72.76685780516371]
単カメラ多目的追跡(MOT)のためのベンチマークMOTChallengeを提案する。
このベンチマークは、歩行者がトラッキングコミュニティで最も研究されているオブジェクトであるため、複数の人を追跡することに重点を置いている。
我々は,最先端トラッカーの分類と広い誤差解析を行う。
論文 参考訳(メタデータ) (2020-10-15T06:52:16Z) - End-to-End Multi-Object Tracking with Global Response Map [23.755882375664875]
画像シーケンス/映像を入力とし、学習対象の位置と追跡対象を直接出力する、完全にエンドツーエンドのアプローチを提案する。
具体的には,提案した多目的表現戦略により,グローバル応答マップをフレーム上で正確に生成することができる。
MOT16 と MOT17 のベンチマークによる実験結果から,提案したオンライントラッカーは,いくつかのトラッキング指標において最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-07-13T12:30:49Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。