論文の概要: DanceTrack: Multi-Object Tracking in Uniform Appearance and Diverse
Motion
- arxiv url: http://arxiv.org/abs/2111.14690v1
- Date: Mon, 29 Nov 2021 16:49:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 17:35:05.730728
- Title: DanceTrack: Multi-Object Tracking in Uniform Appearance and Diverse
Motion
- Title(参考訳): dancetrack: 均一な外観と多様な動きのマルチオブジェクトトラッキング
- Authors: Peize Sun, Jinkun Cao, Yi Jiang, Zehuan Yuan, Song Bai, Kris Kitani,
Ping Luo
- Abstract要約: マルチヒューマントラッキングのための大規模データセットを提案する。
データセットには、主にグループダンスビデオが含まれているので、私たちはそれを"DanceTrack"と名付けます。
当社のデータセット上でいくつかの最先端トラッカーをベンチマークし、既存のベンチマークと比較した場合、DanceTrackの大幅なパフォーマンス低下を観察します。
- 参考スコア(独自算出の注目度): 56.1428110894411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A typical pipeline for multi-object tracking (MOT) is to use a detector for
object localization, and following re-identification (re-ID) for object
association. This pipeline is partially motivated by recent progress in both
object detection and re-ID, and partially motivated by biases in existing
tracking datasets, where most objects tend to have distinguishing appearance
and re-ID models are sufficient for establishing associations. In response to
such bias, we would like to re-emphasize that methods for multi-object tracking
should also work when object appearance is not sufficiently discriminative. To
this end, we propose a large-scale dataset for multi-human tracking, where
humans have similar appearance, diverse motion and extreme articulation. As the
dataset contains mostly group dancing videos, we name it "DanceTrack". We
expect DanceTrack to provide a better platform to develop more MOT algorithms
that rely less on visual discrimination and depend more on motion analysis. We
benchmark several state-of-the-art trackers on our dataset and observe a
significant performance drop on DanceTrack when compared against existing
benchmarks. The dataset, project code and competition server are released at:
\url{https://github.com/DanceTrack}.
- Abstract(参考訳): マルチオブジェクトトラッキング(MOT)の典型的なパイプラインは、オブジェクトのローカライゼーションに検出器を使用し、オブジェクトの関連付けにre-ID(re-identification)を使用する。
このパイプラインは、オブジェクト検出とre-idの両方の最近の進歩によって部分的に動機付けられており、既存のトラッキングデータセットにおける偏りによって部分的に動機づけられている。
このようなバイアスに対応するため、オブジェクトの出現が十分に判別できない場合には、マルチオブジェクトトラッキングのメソッドも動作するべきだと再強調したい。
そこで本研究では,人間が類似した外観,多様な動き,極端な明瞭度を持つマルチヒューマントラッキングのための大規模データセットを提案する。
データセットにはグループダンスビデオがほとんど含まれているので、dancetrackと名付けます。
dancetrackは、視覚的な識別に頼らず、より動き分析に依存するmotアルゴリズムを開発するためのより良いプラットフォームを提供することを期待している。
当社のデータセット上でいくつかの最先端トラッカーをベンチマークし、既存のベンチマークと比較した場合、DanceTrackの大幅なパフォーマンス低下を観察します。
データセット、プロジェクトコード、コンペティションサーバは以下の形でリリースされる。
関連論文リスト
- Tracking Reflected Objects: A Benchmark [12.770787846444406]
我々は、反射オブジェクトのトラッキングに特化したベンチマークであるTROを紹介します。
TROは、約70,000フレームの200のシーケンスを含み、それぞれにバウンディングボックスを慎重にアノテートする。
より強力なベースラインを提供するために,階層的特徴を用いて性能を向上させる新しいトラッカーであるHiP-HaTrackを提案する。
論文 参考訳(メタデータ) (2024-07-07T02:22:45Z) - DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - QDTrack: Quasi-Dense Similarity Learning for Appearance-Only Multiple
Object Tracking [73.52284039530261]
本稿では,コントラスト学習のために,画像上に数百のオブジェクト領域を密集した擬似Dense類似性学習を提案する。
得られた特徴空間は、オブジェクトアソシエーションの推論時間において、単純な近接探索を許容する。
我々の類似性学習方式は,ビデオデータに限らず,静的入力でも有効なインスタンス類似性を学ぶことができることを示す。
論文 参考訳(メタデータ) (2022-10-12T15:47:36Z) - Simple Cues Lead to a Strong Multi-Object Tracker [3.7189423451031356]
マルチオブジェクト追跡のための新しいタイプのトラッキング・バイ・ディテクト(TbD)を提案する。
単純な動作モデルと外観特徴を組み合わせることで,強い追跡結果が得られることを示す。
私たちのトラッカーは、MOT17、MOT20、BDD100k、DanceTrackの4つの公開データセットに一般化され、最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-06-09T17:55:51Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Discriminative Appearance Modeling with Multi-track Pooling for
Real-time Multi-object Tracking [20.66906781151]
マルチオブジェクトトラッキングでは、トラッカーはそのメモリ内にシーンの各オブジェクトの外観と動き情報を保持する。
多くのアプローチは、それぞれのターゲットを分離してモデル化し、シーン内のすべてのターゲットを使用してメモリを共同で更新する能力がない。
オンライン上でハードトラッキングのエピソードを生成するマルチトラックプーリングに適応したトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2021-01-28T18:12:39Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。