論文の概要: Tracking Every Thing in the Wild
- arxiv url: http://arxiv.org/abs/2207.12978v1
- Date: Tue, 26 Jul 2022 15:37:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 13:00:33.725965
- Title: Tracking Every Thing in the Wild
- Title(参考訳): 野生のあらゆるものを追跡する
- Authors: Siyuan Li, Martin Danelljan, Henghui Ding, Thomas E. Huang, Fisher Yu
- Abstract要約: 我々は,新しい測定基準であるTrack Every Thing Accuracy(TETA)を導入し,測定結果を3つのサブファクター(ローカライゼーション,アソシエーション,分類)に分割する。
実験の結果、TETAはトラッカーをより包括的に評価し、TETerはBDD100KとTAOに挑戦する大規模データセットを大幅に改善することがわかった。
- 参考スコア(独自算出の注目度): 61.917043381836656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current multi-category Multiple Object Tracking (MOT) metrics use class
labels to group tracking results for per-class evaluation. Similarly, MOT
methods typically only associate objects with the same class predictions. These
two prevalent strategies in MOT implicitly assume that the classification
performance is near-perfect. However, this is far from the case in recent
large-scale MOT datasets, which contain large numbers of classes with many rare
or semantically similar categories. Therefore, the resulting inaccurate
classification leads to sub-optimal tracking and inadequate benchmarking of
trackers. We address these issues by disentangling classification from
tracking. We introduce a new metric, Track Every Thing Accuracy (TETA),
breaking tracking measurement into three sub-factors: localization,
association, and classification, allowing comprehensive benchmarking of
tracking performance even under inaccurate classification. TETA also deals with
the challenging incomplete annotation problem in large-scale tracking datasets.
We further introduce a Track Every Thing tracker (TETer), that performs
association using Class Exemplar Matching (CEM). Our experiments show that TETA
evaluates trackers more comprehensively, and TETer achieves significant
improvements on the challenging large-scale datasets BDD100K and TAO compared
to the state-of-the-art.
- Abstract(参考訳): 現在のマルチカテゴリマルチオブジェクトトラッキング(mot)メトリクスは、クラスラベルを使用して、クラスごとの評価の結果をグループ追跡する。
同様に、MOTメソッドは一般的にオブジェクトと同じクラス予測を関連付けるだけである。
これら2つの主要な戦略は、分類性能がほぼ完全であると暗黙的に仮定している。
しかし、近年の大規模motデータセットでは、珍しい、あるいは意味的に類似したカテゴリのクラスが多数含まれている。
したがって、結果として生じる不正確な分類は、追跡者の最適でない追跡と不適切なベンチマークにつながる。
追跡から分類を分離することでこの問題に対処します。
我々は,新しい測定基準であるtrack every thing accuracy(teta)を導入し,トラッキング計測を3つのサブファクタ(ローカライゼーション,アソシエーション,分類)に分割し,不正確な分類下でも追跡性能の包括的なベンチマークを可能にする。
tetaは大規模な追跡データセットにおける不完全なアノテーション問題にも対処している。
さらに,Track Every Thing Tracker (TETer)を導入し,CEM(Class Exemplar Matching)を用いてアソシエーションを行う。
実験の結果,TETAはトラッカーをより包括的に評価し,TETerは最先端と比較して,BDD100KとTAOの挑戦的な大規模データセットを大幅に改善した。
関連論文リスト
- OCTrack: Benchmarking the Open-Corpus Multi-Object Tracking [63.53176412315835]
オープンコーパス多対象追跡(OCMOT)の新たな実用的課題について検討する。
我々は,OCMOT問題に対する標準評価プラットフォームを提供するために,大規模かつ包括的なベンチマークであるOCTrackBを構築した。
論文 参考訳(メタデータ) (2024-07-19T05:58:01Z) - Bridging the Gap Between End-to-end and Non-End-to-end Multi-Object
Tracking [27.74953961900086]
既存のエンドツーエンドのマルチオブジェクト追跡(e2e-MOT)手法は、非エンドツーエンドのトラッキング・バイ・検出手法を超えていない。
本稿では,e2e-MOT をシャドウ概念を用いた新しいラベル割り当てにより,簡便かつ効果的な方法である Co-MOT を提案する。
論文 参考訳(メタデータ) (2023-05-22T05:18:34Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - QDTrack: Quasi-Dense Similarity Learning for Appearance-Only Multiple
Object Tracking [73.52284039530261]
本稿では,コントラスト学習のために,画像上に数百のオブジェクト領域を密集した擬似Dense類似性学習を提案する。
得られた特徴空間は、オブジェクトアソシエーションの推論時間において、単純な近接探索を許容する。
我々の類似性学習方式は,ビデオデータに限らず,静的入力でも有効なインスタンス類似性を学ぶことができることを示す。
論文 参考訳(メタデータ) (2022-10-12T15:47:36Z) - mvHOTA: A multi-view higher order tracking accuracy metric to measure
spatial and temporal associations in multi-point detection [1.039718070553655]
マルチオブジェクトトラッキング(MOT)は、シーン内のオブジェクトを検出し、それらを一連のフレームにわたって追跡する、困難なタスクである。
KITTIなどのデータセット上でMOTメソッドをベンチマークする主要な評価基準は、最近、高次追跡精度(HOTA)指標となっている。
マルチポイント(マルチインスタンス、マルチクラス)検出の精度を決定するため、マルチビュー高次トラッキングメトリック(mvHOTA)を提案する。
論文 参考訳(メタデータ) (2022-06-19T10:31:53Z) - TDT: Teaching Detectors to Track without Fully Annotated Videos [2.8292841621378844]
検知と外観の埋め込みの両方を予測するワンステージトラッカーは、多くの注目を集めた。
提案した1段階のソリューションは,2段階のソリューションと品質が一致するが,3倍高速である。
論文 参考訳(メタデータ) (2022-05-11T15:56:17Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。