論文の概要: Discriminative Appearance Modeling with Multi-track Pooling for
Real-time Multi-object Tracking
- arxiv url: http://arxiv.org/abs/2101.12159v1
- Date: Thu, 28 Jan 2021 18:12:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-01-31 18:12:52.931965
- Title: Discriminative Appearance Modeling with Multi-track Pooling for
Real-time Multi-object Tracking
- Title(参考訳): マルチトラックプールを用いたリアルタイムマルチオブジェクトトラッキングのための識別的外観モデル
- Authors: Chanho Kim, Li Fuxin, Mazen Alotaibi, James M. Rehg
- Abstract要約: マルチオブジェクトトラッキングでは、トラッカーはそのメモリ内にシーンの各オブジェクトの外観と動き情報を保持する。
多くのアプローチは、それぞれのターゲットを分離してモデル化し、シーン内のすべてのターゲットを使用してメモリを共同で更新する能力がない。
オンライン上でハードトラッキングのエピソードを生成するマルチトラックプーリングに適応したトレーニング戦略を提案する。
- 参考スコア(独自算出の注目度): 20.66906781151
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In multi-object tracking, the tracker maintains in its memory the appearance
and motion information for each object in the scene. This memory is utilized
for finding matches between tracks and detections and is updated based on the
matching result. Many approaches model each target in isolation and lack the
ability to use all the targets in the scene to jointly update the memory. This
can be problematic when there are similar looking objects in the scene. In this
paper, we solve the problem of simultaneously considering all tracks during
memory updating, with only a small spatial overhead, via a novel multi-track
pooling module. We additionally propose a training strategy adapted to
multi-track pooling which generates hard tracking episodes online. We show that
the combination of these innovations results in a strong discriminative
appearance model, enabling the use of greedy data association to achieve online
tracking performance. Our experiments demonstrate real-time, state-of-the-art
performance on public multi-object tracking (MOT) datasets.
- Abstract(参考訳): マルチオブジェクトトラッキングでは、トラッカーはそのメモリにシーン内の各オブジェクトの外観とモーション情報を維持します。
このメモリは、トラックと検出の一致を見つけるために利用され、マッチング結果に基づいて更新される。
多くのアプローチでは、各ターゲットを分離してモデル化し、シーン内のすべてのターゲットを一緒にメモリを更新するために使用できない。
シーンに類似したオブジェクトがある場合、これは問題となる可能性がある。
本稿では,新しいマルチトラックプーリングモジュールを用いて,メモリ更新中のすべてのトラックを同時に考慮し,空間的なオーバーヘッドを小さくする問題を解く。
さらに,オンライン上でハードトラッキングエピソードを生成するマルチトラックプーリングに適応したトレーニング戦略を提案する。
以上の結果から,これらの技術の組み合わせは強力な差別的外見モデルとなり,グリーディデータアソシエーションを生かしてオンライン追跡性能を達成できることが示唆された。
我々の実験は、パブリックマルチオブジェクト追跡(MOT)データセット上でのリアルタイム、最先端のパフォーマンスを実証した。
関連論文リスト
- Single-Shot and Multi-Shot Feature Learning for Multi-Object Tracking [55.13878429987136]
そこで本研究では,異なる目標に対して,単発と複数発の特徴を共同で学習するための,シンプルで効果的な2段階特徴学習パラダイムを提案する。
提案手法は,DanceTrackデータセットの最先端性能を達成しつつ,MOT17およびMOT20データセットの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-11-17T08:17:49Z) - ReST: A Reconfigurable Spatial-Temporal Graph Model for Multi-Camera
Multi-Object Tracking [11.619493960418176]
Multi-Camera Multi-Object Tracking (MC-MOT)は、複数のビューからの情報を利用して、閉塞や混み合ったシーンの問題に対処する。
現在のグラフベースの手法では、空間的および時間的整合性に関する情報を効果的に利用しない。
本稿では,まず,検出対象を空間的に関連づけて時間グラフに再構成する,新しい再構成可能なグラフモデルを提案する。
論文 参考訳(メタデータ) (2023-08-25T08:02:04Z) - DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - DanceTrack: Multi-Object Tracking in Uniform Appearance and Diverse
Motion [56.1428110894411]
マルチヒューマントラッキングのための大規模データセットを提案する。
データセットには、主にグループダンスビデオが含まれているので、私たちはそれを"DanceTrack"と名付けます。
当社のデータセット上でいくつかの最先端トラッカーをベンチマークし、既存のベンチマークと比較した場合、DanceTrackの大幅なパフォーマンス低下を観察します。
論文 参考訳(メタデータ) (2021-11-29T16:49:06Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。