論文の概要: Z-GMOT: Zero-shot Generic Multiple Object Tracking
- arxiv url: http://arxiv.org/abs/2305.17648v2
- Date: Mon, 21 Aug 2023 18:13:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 20:49:13.715076
- Title: Z-GMOT: Zero-shot Generic Multiple Object Tracking
- Title(参考訳): Z-GMOT:ゼロショットジェネリック多目的追跡
- Authors: Kim Hoang Tran, Tien-Phat Nguyen, Anh Duy Le Dinh, Pha Nguyen, Thinh
Phan, Khoa Luu, Donald Adjeroh, Ngan Hoang Le
- Abstract要約: ゼロショットGMOT(Z-GMOT)アルゴリズムを提案する。
GMOT-40データセット,AnimalTrackテストセット,DanceTrackテストセットでZ-GMOTを評価した。
- 参考スコア(独自算出の注目度): 7.148463398763858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the significant progress made in recent years, Multi-Object Tracking
(MOT) approaches still suffer from several limitations, including their
reliance on prior knowledge of tracking targets, which necessitates the costly
annotation of large labeled datasets. As a result, existing MOT methods are
limited to a small set of predefined categories, and they struggle with unseen
objects in the real world. To address these issues, Generic Multiple Object
Tracking (GMOT) has been proposed, which requires less prior information about
the targets. However, all existing GMOT approaches follow a one-shot paradigm,
relying mainly on the initial bounding box and thus struggling to handle
variants e.g., viewpoint, lighting, occlusion, scale, and etc. In this paper,
we introduce a novel approach to address the limitations of existing MOT and
GMOT methods. Specifically, we propose a zero-shot GMOT (Z-GMOT) algorithm that
can track never-seen object categories with zero training examples, without the
need for predefined categories or an initial bounding box. To achieve this, we
propose iGLIP, an improved version of Grounded language-image pretraining
(GLIP), which can detect unseen objects while minimizing false positives. We
evaluate our Z-GMOT thoroughly on the GMOT-40 dataset, AnimalTrack testset,
DanceTrack testset. The results of these evaluations demonstrate a significant
improvement over existing methods. For instance, on the GMOT-40 dataset, the
Z-GMOT outperforms one-shot GMOT with OC-SORT by 27.79 points HOTA and 44.37
points MOTA. On the AnimalTrack dataset, it surpasses fully-supervised methods
with DeepSORT by 12.55 points HOTA and 8.97 points MOTA. To facilitate further
research, we will make our code and models publicly available upon acceptance
of this paper.
- Abstract(参考訳): 近年の進歩にもかかわらず、Multi-Object Tracking(MOT)アプローチは、大規模ラベル付きデータセットの高価なアノテーションを必要とするトラッキングターゲットの事前知識への依存など、いくつかの制限を被っている。
結果として、既存のMOTメソッドは、定義済みの小さなカテゴリに限られており、実世界の目に見えないオブジェクトと戦っている。
これらの問題に対処するため、GMOT(Generic Multiple Object Tracking)が提案されている。
しかしながら、既存のGMOTアプローチはすべてワンショットのパラダイムに従っており、主に初期バウンディングボックスに依存しており、視点、照明、閉塞、スケールなどの変種を扱うのに苦労している。
本稿では,既存のMOT法とGMOT法の限界に対処する新しい手法を提案する。
具体的には,ゼロショットGMOT (Z-GMOT) アルゴリズムを提案する。
そこで本研究では, 偽陽性を最小化しつつ, 未確認物体を検出可能な言語画像事前学習(GLIP)の改良版iGLIPを提案する。
GMOT-40データセット、AnimalTrackテストセット、DanceTrackテストセットに基づいて、Z-GMOTを徹底的に評価する。
これらの評価結果は,既存手法よりも大幅に改善された。
例えば、GMOT-40データセットでは、Z-GMOTは1ショットのGMOTとOC-SORTを27.79ポイントのHOTAと44.37ポイントのMOTAで上回っている。
AnimalTrackデータセットでは、DeepSORTで完全に監督されたメソッドを12.55ポイントのHOTAと8.97ポイントのMOTAで上回っている。
さらなる研究を促進するため、本論文の受理後、コードとモデルを公開します。
関連論文リスト
- Siamese-DETR for Generic Multi-Object Tracking [18.411089415721076]
従来のマルチオブジェクト追跡(MOT)は、事前に定義されたクローズドセットカテゴリに属するオブジェクトを追跡することに限定されている。
Siamese-DETRは、所定のテキストプロンプトとテンプレート画像を用いて、事前に定義されたカテゴリを超えてオブジェクトを追跡する。
Siamese-DETRはGMOT-40データセット上の既存のMOTメソッドを大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-10-27T03:32:05Z) - UTOPIA: Unconstrained Tracking Objects without Preliminary Examination
via Cross-Domain Adaptation [26.293108793029297]
多重オブジェクト追跡(MOT)は、連続したビデオフレーム内で対象オブジェクトのバウンディングボックスとIDを見つけることを目的としている。
完全に教師されたMOTメソッドは、既存のデータセットで高い精度を達成したが、新たに取得したデータセットや新しい未知のドメインではうまく一般化できない。
本稿では、まず、ドメイン間の観点からMOT問題に対処し、実際に新しいデータ取得のプロセスを模倣する。
既存のデータセットからの新たなクロスドメインMOT適応は、オブジェクトの理解とモデリングに関する人間の知識を事前に定義せずに提案されている。
論文 参考訳(メタデータ) (2023-06-16T04:06:15Z) - Beyond SOT: Tracking Multiple Generic Objects at Once [141.36900362724975]
ジェネリックオブジェクト追跡(ジェネリックオブジェクト追跡、英: Generic Object Tracking、GOT)は、ビデオの最初のフレームでボックスをバウンディングすることによって指定されたターゲットオブジェクトを追跡する問題である。
大規模GOTベンチマークであるLaGOTを導入し,複数のアノテート対象オブジェクトをシーケンス毎に含む。
提案手法は単一オブジェクトのGOTデータセットに対して高い競合性を実現し,TrackingNet上での新たな技術状態が84.4%の成功率で設定されている。
論文 参考訳(メタデータ) (2022-12-22T17:59:19Z) - Tracking Every Thing in the Wild [61.917043381836656]
我々は,新しい測定基準であるTrack Every Thing Accuracy(TETA)を導入し,測定結果を3つのサブファクター(ローカライゼーション,アソシエーション,分類)に分割する。
実験の結果、TETAはトラッカーをより包括的に評価し、TETerはBDD100KとTAOに挑戦する大規模データセットを大幅に改善することがわかった。
論文 参考訳(メタデータ) (2022-07-26T15:37:19Z) - StrongSORT: Make DeepSORT Great Again [19.099510933467148]
我々は、古典的なトラッカーであるDeepSORTを再検討し、検出、埋め込み、関連付けといった様々な側面からアップグレードする。
結果、StrongSORTと呼ばれるトラッカーは、MOT17とMOT20に新しいHOTAとIDF1レコードをセットする。
追跡結果をさらに改善するために,軽量かつプラグアンドプレイのアルゴリズムを2つ提案する。
論文 参考訳(メタデータ) (2022-02-28T02:37:19Z) - Probabilistic Tracklet Scoring and Inpainting for Multiple Object
Tracking [83.75789829291475]
本稿では,トラックレット提案の確率的自己回帰運動モデルを提案する。
これは、我々のモデルを訓練して、自然のトラックレットの基盤となる分布を学習することで達成される。
我々の実験は、挑戦的なシーケンスにおける物体の追跡におけるアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2020-12-03T23:59:27Z) - GMOT-40: A Benchmark for Generic Multiple Object Tracking [65.80411267046786]
我々はジェネリック・マルチプル・オブジェクト・トラッキング(GMOT)の研究を3つの側面で促進するために貢献する。
まず、GMOT-40と呼ばれる最初の公開GMOTデータセットを構築する。
第二に、専用追跡アルゴリズムの欠如に留意して、一連のベースラインGMOTアルゴリズムを設計した。
第3に、一般的なMOTアルゴリズムと提案したベースラインを含むGMOT-40の徹底的な評価を行う。
論文 参考訳(メタデータ) (2020-11-24T02:51:46Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。