論文の概要: Tracking-by-Counting: Using Network Flows on Crowd Density Maps for
Tracking Multiple Targets
- arxiv url: http://arxiv.org/abs/2007.09509v1
- Date: Sat, 18 Jul 2020 19:51:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 05:50:46.886365
- Title: Tracking-by-Counting: Using Network Flows on Crowd Density Maps for
Tracking Multiple Targets
- Title(参考訳): トラッキング・バイ・カウンタリング:集合密度マップ上のネットワークフローを用いた複数ターゲット追跡
- Authors: Weihong Ren, Xinchao Wang, Jiandong Tian, Yandong Tang and Antoni B.
Chan
- Abstract要約: State-of-the-art multi-object tracking(MOT)法は、トラッキング・バイ・検出のパラダイムに従っている。
混み合ったシーンに適したMOTパラダイムであるトラッキング・バイ・カウントを提案する。
- 参考スコア(独自算出の注目度): 96.98888948518815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art multi-object tracking~(MOT) methods follow the
tracking-by-detection paradigm, where object trajectories are obtained by
associating per-frame outputs of object detectors. In crowded scenes, however,
detectors often fail to obtain accurate detections due to heavy occlusions and
high crowd density. In this paper, we propose a new MOT paradigm,
tracking-by-counting, tailored for crowded scenes. Using crowd density maps, we
jointly model detection, counting, and tracking of multiple targets as a
network flow program, which simultaneously finds the global optimal detections
and trajectories of multiple targets over the whole video. This is in contrast
to prior MOT methods that either ignore the crowd density and thus are prone to
errors in crowded scenes, or rely on a suboptimal two-step process using
heuristic density-aware point-tracks for matching targets.Our approach yields
promising results on public benchmarks of various domains including people
tracking, cell tracking, and fish tracking.
- Abstract(参考訳): State-of-the-art multi-object tracking~(MOT)メソッドは、オブジェクト検出器のフレーム単位の出力を関連付けることによってオブジェクトの軌跡を得る、トラッキング・バイ・検出のパラダイムに従っている。
しかし, 混み合った場面では, 重度の咬合や密集度が高いため, 検出精度が低下することが多い。
本稿では,混み合ったシーンに適したMOTパラダイムであるトラッキング・バイ・カウンティングを提案する。
群衆密度マップを用いて、複数のターゲットの同時検出、カウント、追跡をネットワークフロープログラムとしてモデル化し、同時にビデオ全体にわたって複数のターゲットのグローバルな最適検出と軌跡を検出する。
これは、群衆密度を無視して混み合いの場面でエラーを起こしやすい従来のMOT手法と対照的であり、また、目標に合わせるためにヒューリスティックな密度認識ポイントトラックを用いた2段階以下のプロセスに依存しており、我々のアプローチは、人々の追跡、細胞追跡、魚の追跡を含む様々な領域の公的なベンチマークで有望な結果をもたらす。
関連論文リスト
- ConsistencyTrack: A Robust Multi-Object Tracker with a Generation Strategy of Consistency Model [20.259334882471574]
マルチオブジェクトトラッキング(MOT)は、コンピュータビジョンにおいて重要な技術であり、ビデオシーケンス内の複数のターゲットを検出し、各ターゲットにフレーム毎にユニークなIDを割り当てるように設計されている。
既存のMOTメソッドは、様々なシナリオでリアルタイムで複数のオブジェクトを正確に追跡する。
本稿では,境界ボックス上の拡散過程として検出と関連を定式化するための新しいConsistencyTrack, Joint Detection and Tracking (JDT) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-28T05:53:30Z) - Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - Iterative Scale-Up ExpansionIoU and Deep Features Association for
Multi-Object Tracking in Sports [26.33239898091364]
本稿では,スポーツシナリオに対するDeep ExpansionIoU (Deep-EIoU) という,オンラインかつ堅牢な多対象追跡手法を提案する。
従来の手法とは異なり、カルマンフィルタの使用を放棄し、スポーツシナリオにおける拡張IoUの反復的なスケールアップと深い特徴を活用して、ロバストなトラッキングを行う。
提案手法は,SportsMOTデータセットで77.2%,SportsNet-Trackingデータセットで85.4%を達成し,不規則な動き物体の追跡に顕著な効果を示した。
論文 参考訳(メタデータ) (2023-06-22T17:47:08Z) - SparseTrack: Multi-Object Tracking by Performing Scene Decomposition
based on Pseudo-Depth [84.64121608109087]
2次元画像から目標の相対的な深さを求めるための擬似深度推定法を提案する。
次に,得られた深度情報を用いて,高密度なターゲットセットを複数のスパースなターゲットサブセットに変換するディープカスケードマッチング(DCM)アルゴリズムを設計する。
擬似深度法とDCM戦略をデータアソシエーションプロセスに統合することにより、SparseTrackと呼ばれる新しいトラッカーを提案する。
論文 参考訳(メタデータ) (2023-06-08T14:36:10Z) - TopTrack: Tracking Objects By Their Top [13.020122353444497]
TopTrackは、オブジェクトの上部を中心ではなくキーポイントとして使用する、共同検出と追跡の手法である。
我々は,検出のキーポイントとしてオブジェクトトップを使用することで,検出ミスの量を削減できることを示す実験を行った。
論文 参考訳(メタデータ) (2023-04-12T19:00:12Z) - Joint Counting, Detection and Re-Identification for Multi-Object
Tracking [8.89262850257871]
混雑したシーンでは、共同検出と追跡は通常、ミスや誤検出のために正確なオブジェクト関連を見つけることができない。
混み合ったシーンに適したエンドツーエンドフレームワークであるCountingMOTで、カウント、検出、再識別を共同でモデル化する。
提案したMOTトラッカーは、オンラインとリアルタイムのトラッキングが可能で、公開ベンチマークMOT16(79.7のMOTA)、MOT17(81.3%のMOTA)、MOT20(78.9%のMOTA)の最先端結果が得られる。
論文 参考訳(メタデータ) (2022-12-12T12:53:58Z) - Tracking by Joint Local and Global Search: A Target-aware Attention
based Approach [63.50045332644818]
本研究では、ロバストな追跡のための局所的・グローバルな共同探索を行うための新たな目標認識型アテンション機構(TANet)を提案する。
具体的には、ターゲットオブジェクトパッチと連続ビデオフレームの特徴を抽出し、それらをデコーダネットワークに追従して、ターゲットを意識したグローバルアテンションマップを生成する。
追跡手順において、ロバストな追跡のための候補探索領域を探索することにより、ターゲット認識の注意を複数のトラッカーと統合する。
論文 参考訳(メタデータ) (2021-06-09T06:54:15Z) - Track to Detect and Segment: An Online Multi-Object Tracker [81.15608245513208]
TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
論文 参考訳(メタデータ) (2021-03-16T02:34:06Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。