論文の概要: GMOT-40: A Benchmark for Generic Multiple Object Tracking
- arxiv url: http://arxiv.org/abs/2011.11858v3
- Date: Wed, 7 Apr 2021 19:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 12:07:32.305312
- Title: GMOT-40: A Benchmark for Generic Multiple Object Tracking
- Title(参考訳): GMOT-40: ジェネリックマルチオブジェクト追跡のためのベンチマーク
- Authors: Hexin Bai, Wensheng Cheng, Peng Chu, Juehuan Liu, Kai Zhang, Haibin
Ling
- Abstract要約: 我々はジェネリック・マルチプル・オブジェクト・トラッキング(GMOT)の研究を3つの側面で促進するために貢献する。
まず、GMOT-40と呼ばれる最初の公開GMOTデータセットを構築する。
第二に、専用追跡アルゴリズムの欠如に留意して、一連のベースラインGMOTアルゴリズムを設計した。
第3に、一般的なMOTアルゴリズムと提案したベースラインを含むGMOT-40の徹底的な評価を行う。
- 参考スコア(独自算出の注目度): 65.80411267046786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple Object Tracking (MOT) has witnessed remarkable advances in recent
years. However, existing studies dominantly request prior knowledge of the
tracking target, and hence may not generalize well to unseen categories. In
contrast, Generic Multiple Object Tracking (GMOT), which requires little prior
information about the target, is largely under-explored. In this paper, we make
contributions to boost the study of GMOT in three aspects. First, we construct
the first public GMOT dataset, dubbed GMOT-40, which contains 40 carefully
annotated sequences evenly distributed among 10 object categories. In addition,
two tracking protocols are adopted to evaluate different characteristics of
tracking algorithms. Second, by noting the lack of devoted tracking algorithms,
we have designed a series of baseline GMOT algorithms. Third, we perform a
thorough evaluation on GMOT-40, involving popular MOT algorithms (with
necessary modifications) and the proposed baselines. We will release the
GMOT-40 benchmark, the evaluation results, as well as the baseline algorithm to
the public upon the publication of the paper.
- Abstract(参考訳): 複数物体追跡(MOT)は近年顕著な進歩を遂げている。
しかし、既存の研究は追跡対象の事前知識を強く求めており、その結果、見当たらないカテゴリーに一般化できない可能性がある。
対照的に、ターゲットに関する事前情報をほとんど必要としないジェネリック多重オブジェクト追跡(GMOT)は、ほとんど探索されていない。
本稿では,GMOT研究の促進に3つの側面から貢献する。
まず、最初の公開gmotデータセットであるgmot-40を構築し、40個のアノテーション付きシーケンスを10のオブジェクトカテゴリに均等に配置した。
さらに、追跡アルゴリズムの特徴を評価するために、2つの追跡プロトコルが採用されている。
第2に,専用のトラッキングアルゴリズムの欠如を指摘して,一連のベースラインgmotアルゴリズムを設計した。
第3に、GMOT-40において、一般的なMOTアルゴリズム(修正が必要)と提案したベースラインを含む徹底的な評価を行う。
我々は,GMOT-40ベンチマーク,評価結果,およびベースラインアルゴリズムを論文発表時に公開する。
関連論文リスト
- Enhanced Kalman with Adaptive Appearance Motion SORT for Grounded Generic Multiple Object Tracking [0.08333024746293495]
Grounded-GMOTは、ユーザーが自然言語記述子を通じてビデオ内の複数のジェネリックオブジェクトを追跡することができる革新的なトラッキングパラダイムである。
コントリビューションはG2MOTデータセットの導入から始まり、多様なジェネリックオブジェクトを特徴とするビデオのコレクションを含む。
そこで本研究では,視覚的外観を動作キューと効果的に統合するだけでなく,カルマンフィルタを改良した新しいトラッキング手法KAM-SORTを提案する。
論文 参考訳(メタデータ) (2024-10-11T20:38:17Z) - OCTrack: Benchmarking the Open-Corpus Multi-Object Tracking [63.53176412315835]
オープンコーパス多対象追跡(OCMOT)の新たな実用的課題について検討する。
我々は,OCMOT問題に対する標準評価プラットフォームを提供するために,大規模かつ包括的なベンチマークであるOCTrackBを構築した。
論文 参考訳(メタデータ) (2024-07-19T05:58:01Z) - Siamese-DETR for Generic Multi-Object Tracking [16.853363984562602]
従来のマルチオブジェクト追跡(MOT)は、事前に定義されたクローズドセットカテゴリに属するオブジェクトを追跡することに限定されている。
Siamese-DETRは、所定のテキストプロンプトとテンプレート画像を用いて、事前に定義されたカテゴリを超えてオブジェクトを追跡する。
Siamese-DETRはGMOT-40データセット上の既存のMOTメソッドを大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-10-27T03:32:05Z) - Comparative study of multi-person tracking methods [0.0]
本研究の目的は,これらの手法の発見と追跡パイプラインにおけるこれらのアルゴリズムに関する有用な洞察を提供することである。
われわれはMOT17Detデータセットを用いて歩行者検出モデルを訓練した。
次に,トラクタ++がSORTよりも優れたマルチパーソントラッキングアルゴリズムであることを示す実験結果を示す。
論文 参考訳(メタデータ) (2023-10-07T14:29:57Z) - Z-GMOT: Zero-shot Generic Multiple Object Tracking [8.878331472995498]
マルチオブジェクト追跡(MOT)は、事前知識や事前定義されたカテゴリに依存するような制限に直面している。
これらの問題に対処するため、ジェネリック・マルチプル・オブジェクト・トラッキング(GMOT)が代替アプローチとして登場した。
我々は,初期バウンディングボックスや事前定義されたカテゴリを必要とせずに,テキストに表示されるカテゴリからオブジェクトを追跡する,最先端追跡ソリューションである$mathttZ-GMOT$を提案する。
論文 参考訳(メタデータ) (2023-05-28T06:44:33Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - Tracking Every Thing in the Wild [61.917043381836656]
我々は,新しい測定基準であるTrack Every Thing Accuracy(TETA)を導入し,測定結果を3つのサブファクター(ローカライゼーション,アソシエーション,分類)に分割する。
実験の結果、TETAはトラッカーをより包括的に評価し、TETerはBDD100KとTAOに挑戦する大規模データセットを大幅に改善することがわかった。
論文 参考訳(メタデータ) (2022-07-26T15:37:19Z) - MOTChallenge: A Benchmark for Single-Camera Multiple Target Tracking [72.76685780516371]
単カメラ多目的追跡(MOT)のためのベンチマークMOTChallengeを提案する。
このベンチマークは、歩行者がトラッキングコミュニティで最も研究されているオブジェクトであるため、複数の人を追跡することに重点を置いている。
我々は,最先端トラッカーの分類と広い誤差解析を行う。
論文 参考訳(メタデータ) (2020-10-15T06:52:16Z) - MOT20: A benchmark for multi object tracking in crowded scenes [73.92443841487503]
我々は,非常に混み合ったシーンを描写した8つの新しいシーケンスからなるMOT20ベンチマークを提示する。
ベンチマークは第4回BMTT MOT Challenge Workshop at the Computer Vision and Pattern Recognition Conference (CVPR)で初めて発表された。
論文 参考訳(メタデータ) (2020-03-19T20:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。