論文の概要: Z-GMOT: Zero-shot Generic Multiple Object Tracking
- arxiv url: http://arxiv.org/abs/2305.17648v2
- Date: Mon, 21 Aug 2023 18:13:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 20:49:13.715076
- Title: Z-GMOT: Zero-shot Generic Multiple Object Tracking
- Title(参考訳): Z-GMOT:ゼロショットジェネリック多目的追跡
- Authors: Kim Hoang Tran, Tien-Phat Nguyen, Anh Duy Le Dinh, Pha Nguyen, Thinh
Phan, Khoa Luu, Donald Adjeroh, Ngan Hoang Le
- Abstract要約: ゼロショットGMOT(Z-GMOT)アルゴリズムを提案する。
GMOT-40データセット,AnimalTrackテストセット,DanceTrackテストセットでZ-GMOTを評価した。
- 参考スコア(独自算出の注目度): 7.148463398763858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the significant progress made in recent years, Multi-Object Tracking
(MOT) approaches still suffer from several limitations, including their
reliance on prior knowledge of tracking targets, which necessitates the costly
annotation of large labeled datasets. As a result, existing MOT methods are
limited to a small set of predefined categories, and they struggle with unseen
objects in the real world. To address these issues, Generic Multiple Object
Tracking (GMOT) has been proposed, which requires less prior information about
the targets. However, all existing GMOT approaches follow a one-shot paradigm,
relying mainly on the initial bounding box and thus struggling to handle
variants e.g., viewpoint, lighting, occlusion, scale, and etc. In this paper,
we introduce a novel approach to address the limitations of existing MOT and
GMOT methods. Specifically, we propose a zero-shot GMOT (Z-GMOT) algorithm that
can track never-seen object categories with zero training examples, without the
need for predefined categories or an initial bounding box. To achieve this, we
propose iGLIP, an improved version of Grounded language-image pretraining
(GLIP), which can detect unseen objects while minimizing false positives. We
evaluate our Z-GMOT thoroughly on the GMOT-40 dataset, AnimalTrack testset,
DanceTrack testset. The results of these evaluations demonstrate a significant
improvement over existing methods. For instance, on the GMOT-40 dataset, the
Z-GMOT outperforms one-shot GMOT with OC-SORT by 27.79 points HOTA and 44.37
points MOTA. On the AnimalTrack dataset, it surpasses fully-supervised methods
with DeepSORT by 12.55 points HOTA and 8.97 points MOTA. To facilitate further
research, we will make our code and models publicly available upon acceptance
of this paper.
- Abstract(参考訳): 近年の進歩にもかかわらず、Multi-Object Tracking(MOT)アプローチは、大規模ラベル付きデータセットの高価なアノテーションを必要とするトラッキングターゲットの事前知識への依存など、いくつかの制限を被っている。
結果として、既存のMOTメソッドは、定義済みの小さなカテゴリに限られており、実世界の目に見えないオブジェクトと戦っている。
これらの問題に対処するため、GMOT(Generic Multiple Object Tracking)が提案されている。
しかしながら、既存のGMOTアプローチはすべてワンショットのパラダイムに従っており、主に初期バウンディングボックスに依存しており、視点、照明、閉塞、スケールなどの変種を扱うのに苦労している。
本稿では,既存のMOT法とGMOT法の限界に対処する新しい手法を提案する。
具体的には,ゼロショットGMOT (Z-GMOT) アルゴリズムを提案する。
そこで本研究では, 偽陽性を最小化しつつ, 未確認物体を検出可能な言語画像事前学習(GLIP)の改良版iGLIPを提案する。
GMOT-40データセット、AnimalTrackテストセット、DanceTrackテストセットに基づいて、Z-GMOTを徹底的に評価する。
これらの評価結果は,既存手法よりも大幅に改善された。
例えば、GMOT-40データセットでは、Z-GMOTは1ショットのGMOTとOC-SORTを27.79ポイントのHOTAと44.37ポイントのMOTAで上回っている。
AnimalTrackデータセットでは、DeepSORTで完全に監督されたメソッドを12.55ポイントのHOTAと8.97ポイントのMOTAで上回っている。
さらなる研究を促進するため、本論文の受理後、コードとモデルを公開します。
関連論文リスト
- ClickTrack: Towards Real-time Interactive Single Object Tracking [58.52366657445601]
リアルタイムシナリオにおけるクリックインタラクションを用いた新しいパラダイムであるClickTrackを提案する。
特定のシナリオにおける曖昧さに対処するために、ポイントとオプションのテキスト情報を入力として受け入れるガイド・クリック・リファイナ(GCR)を設計した。
LaSOTとGOT-10kベンチマークの実験により、GCRと組み合わせたトラッカーがリアルタイムの対話シナリオで安定したパフォーマンスを実現することが示された。
論文 参考訳(メタデータ) (2024-11-20T10:30:33Z) - Enhanced Kalman with Adaptive Appearance Motion SORT for Grounded Generic Multiple Object Tracking [0.08333024746293495]
Grounded-GMOTは、ユーザーが自然言語記述子を通じてビデオ内の複数のジェネリックオブジェクトを追跡することができる革新的なトラッキングパラダイムである。
コントリビューションはG2MOTデータセットの導入から始まり、多様なジェネリックオブジェクトを特徴とするビデオのコレクションを含む。
そこで本研究では,視覚的外観を動作キューと効果的に統合するだけでなく,カルマンフィルタを改良した新しいトラッキング手法KAM-SORTを提案する。
論文 参考訳(メタデータ) (2024-10-11T20:38:17Z) - TP-GMOT: Tracking Generic Multiple Object by Textual Prompt with Motion-Appearance Cost (MAC) SORT [0.0]
マルチオブジェクト追跡(MOT)は、かなり進歩しているが、事前の知識に大きく依存している。
ジェネリック・マルチプル・オブジェクト・トラッキング(GMOT)は、類似した外観を持つ複数のオブジェクトを追跡するが、ターゲットに関する事前情報が少ない。
我々はtextbftextTP-GMOTと呼ばれる新しいテキストプロンプトベースのオープン語彙GMOTフレームワークを導入する。
GMOTタスク用のtextRefer-GMOTデータセット上で、コントリビューションをベンチマークします。
論文 参考訳(メタデータ) (2024-09-04T07:33:09Z) - Siamese-DETR for Generic Multi-Object Tracking [16.853363984562602]
従来のマルチオブジェクト追跡(MOT)は、事前に定義されたクローズドセットカテゴリに属するオブジェクトを追跡することに限定されている。
Siamese-DETRは、所定のテキストプロンプトとテンプレート画像を用いて、事前に定義されたカテゴリを超えてオブジェクトを追跡する。
Siamese-DETRはGMOT-40データセット上の既存のMOTメソッドを大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-10-27T03:32:05Z) - UnsMOT: Unified Framework for Unsupervised Multi-Object Tracking with
Geometric Topology Guidance [6.577227592760559]
UnsMOTは、オブジェクトの外観と運動の特徴と幾何学的情報を組み合わせて、より正確なトラッキングを提供する新しいフレームワークである。
実験結果から, HOTA, IDF1, MOTAの計測値において, 最先端手法と比較して顕著な性能を示した。
論文 参考訳(メタデータ) (2023-09-03T04:58:12Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - Unifying Tracking and Image-Video Object Detection [54.91658924277527]
TrIVD (Tracking and Image-Video Detection) は、画像OD、ビデオOD、MOTを1つのエンドツーエンドモデルに統合する最初のフレームワークである。
カテゴリラベルの相違やセマンティックな重複に対処するため、TrIVDは対象カテゴリに対する検出/追跡を基礎と理由として定式化している。
論文 参考訳(メタデータ) (2022-11-20T20:30:28Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - Multi-Object Tracking and Segmentation via Neural Message Passing [0.0]
グラフは、Multiple Object Tracking (MOT) とMultiple Object Tracking (MOTS) を定式化する自然な方法を提供する。
我々は、メッセージパッシングネットワーク(MPN)に基づく、完全に差別化可能なフレームワークを定義するために、MOTの古典的なネットワークフロー定式化を利用する。
いくつかの公開データセットにおけるトラッキングとセグメンテーションの両面での最先端の結果が得られます。
論文 参考訳(メタデータ) (2022-07-15T13:03:47Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z) - Chained-Tracker: Chaining Paired Attentive Regression Results for
End-to-End Joint Multiple-Object Detection and Tracking [102.31092931373232]
そこで我々は,3つのサブタスク全てをエンド・ツー・エンドのソリューションに統合する簡単なオンラインモデルである Chained-Tracker (CTracker) を提案する。
鎖状構造と対の注意的回帰という2つの大きな特徴は、CTrackerをシンプルに、速く、効果的にする。
論文 参考訳(メタデータ) (2020-07-29T02:38:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。