論文の概要: CrowdTrack: A Benchmark for Difficult Multiple Pedestrian Tracking in Real Scenarios
- arxiv url: http://arxiv.org/abs/2507.02479v1
- Date: Thu, 03 Jul 2025 09:36:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:16.078928
- Title: CrowdTrack: A Benchmark for Difficult Multiple Pedestrian Tracking in Real Scenarios
- Title(参考訳): CrowdTrack: 実シナリオでの複数の歩行者追跡を難しくするベンチマーク
- Authors: Teng Fu, Yuwen Chen, Zhuofan Chen, Mengyang Zhao, Bin Li, Xiangyang Xue,
- Abstract要約: 本稿では,主に1対1の視点から撮影されたマルチペデストリアン追跡のための大規模データセットを提案する。
私たちのデータセットは33本のビデオで構成されており、合計5,185本の軌跡が含まれている。
このデータセットは、複雑な状況で有効なアルゴリズムの開発を容易にするプラットフォームを提供する。
- 参考スコア(独自算出の注目度): 41.96441237870711
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-object tracking is a classic field in computer vision. Among them, pedestrian tracking has extremely high application value and has become the most popular research category. Existing methods mainly use motion or appearance information for tracking, which is often difficult in complex scenarios. For the motion information, mutual occlusions between objects often prevent updating of the motion state; for the appearance information, non-robust results are often obtained due to reasons such as only partial visibility of the object or blurred images. Although learning how to perform tracking in these situations from the annotated data is the simplest solution, the existing MOT dataset fails to satisfy this solution. Existing methods mainly have two drawbacks: relatively simple scene composition and non-realistic scenarios. Although some of the video sequences in existing dataset do not have the above-mentioned drawbacks, the number is far from adequate for research purposes. To this end, we propose a difficult large-scale dataset for multi-pedestrian tracking, shot mainly from the first-person view and all from real-life complex scenarios. We name it ``CrowdTrack'' because there are numerous objects in most of the sequences. Our dataset consists of 33 videos, containing a total of 5,185 trajectories. Each object is annotated with a complete bounding box and a unique object ID. The dataset will provide a platform to facilitate the development of algorithms that remain effective in complex situations. We analyzed the dataset comprehensively and tested multiple SOTA models on our dataset. Besides, we analyzed the performance of the foundation models on our dataset. The dataset and project code is released at: https://github.com/loseevaya/CrowdTrack .
- Abstract(参考訳): マルチオブジェクトトラッキングはコンピュータビジョンの古典的な分野である。
その中で、歩行者追跡は非常に高い適用価値があり、最も人気のある研究カテゴリとなっている。
既存の手法は主に動作情報や外観情報を追跡に用いており、複雑なシナリオでは困難な場合が多い。
動作情報については、物体間の相互閉塞が運動状態の更新を防止している場合が多く、外見情報については、物体の部分視認性やぼやけた画像のみの理由から、乱れのない結果が得られることが多い。
アノテーション付きデータからこれらの状況におけるトラッキングの方法を学ぶことは最も簡単なソリューションであるが、既存のMOTデータセットはこのソリューションを満たすことができない。
既存の手法には、比較的単純なシーン構成と非現実的なシナリオの2つの欠点がある。
既存のデータセットのいくつかのビデオシーケンスは上記の欠点を持っていないが、この数字は研究目的には適していない。
そこで本研究では,主に一人称視点と実生活の複雑なシナリオから撮影された,多足歩行追跡のための大規模データセットを提案する。
ほとんどのシーケンスには多数のオブジェクトがあるので、 '`CrowdTrack'' と名付けます。
私たちのデータセットは33本のビデオで構成されており、合計5,185本の軌跡が含まれている。
各オブジェクトには、完全なバウンディングボックスとユニークなオブジェクトIDがアノテートされる。
このデータセットは、複雑な状況で有効なアルゴリズムの開発を容易にするプラットフォームを提供する。
データセットを包括的に分析し、データセット上で複数のSOTAモデルをテストした。
さらに,データセット上でのファンデーションモデルの性能分析を行った。
データセットとプロジェクトコードは、https://github.com/loseevaya/CrowdTrack でリリースされている。
関連論文リスト
- DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - DanceTrack: Multi-Object Tracking in Uniform Appearance and Diverse
Motion [56.1428110894411]
マルチヒューマントラッキングのための大規模データセットを提案する。
データセットには、主にグループダンスビデオが含まれているので、私たちはそれを"DanceTrack"と名付けます。
当社のデータセット上でいくつかの最先端トラッカーをベンチマークし、既存のベンチマークと比較した場合、DanceTrackの大幅なパフォーマンス低下を観察します。
論文 参考訳(メタデータ) (2021-11-29T16:49:06Z) - Addressing Multiple Salient Object Detection via Dual-Space Long-Range
Dependencies [3.8824028205733017]
正常なオブジェクト検出は多くの下流タスクで重要な役割を果たす。
空間空間とチャネル空間の両方に非局所的特徴情報を組み込んだネットワークアーキテクチャを提案する。
複雑なシナリオであっても,本手法は複数の有能な領域を正確に特定できることを示す。
論文 参考訳(メタデータ) (2021-11-04T23:16:53Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Discriminative Appearance Modeling with Multi-track Pooling for
Real-time Multi-object Tracking [20.66906781151]
マルチオブジェクトトラッキングでは、トラッカーはそのメモリ内にシーンの各オブジェクトの外観と動き情報を保持する。
多くのアプローチは、それぞれのターゲットを分離してモデル化し、シーン内のすべてのターゲットを使用してメモリを共同で更新する能力がない。
オンライン上でハードトラッキングのエピソードを生成するマルチトラックプーリングに適応したトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2021-01-28T18:12:39Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。