論文の概要: Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking
- arxiv url: http://arxiv.org/abs/2407.14086v2
- Date: Tue, 6 Aug 2024 09:56:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 18:22:38.847819
- Title: Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking
- Title(参考訳): 埋め込みと時間相関:JDEに基づくリアルタイムマルチオブジェクト追跡の第2世代に向けて
- Authors: Yunfei Zhang, Chao Liang, Jin Gao, Zhipeng Zhang, Weiming Hu, Stephen Maybank, Xue Zhou, Liang Li,
- Abstract要約: 共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
- 参考スコア(独自算出の注目度): 52.04679257903805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Joint Detection and Embedding (JDE) trackers have demonstrated excellent performance in Multi-Object Tracking (MOT) tasks by incorporating the extraction of appearance features as auxiliary tasks through embedding Re-Identification task (ReID) into the detector, achieving a balance between inference speed and tracking performance. However, solving the competition between the detector and the feature extractor has always been a challenge. Meanwhile, the issue of directly embedding the ReID task into MOT has remained unresolved. The lack of high discriminability in appearance features results in their limited utility. In this paper, a new learning approach using cross-correlation to capture temporal information of objects is proposed. The feature extraction network is no longer trained solely on appearance features from each frame but learns richer motion features by utilizing feature heatmaps from consecutive frames, which addresses the challenge of inter-class feature similarity. Furthermore, our learning approach is applied to a more lightweight feature extraction network, and treat the feature matching scores as strong cues rather than auxiliary cues, with an appropriate weight calculation to reflect the compatibility between our obtained features and the MOT task. Our tracker, named TCBTrack, achieves state-of-the-art performance on multiple public benchmarks, i.e., MOT17, MOT20, and DanceTrack datasets. Specifically, on the DanceTrack test set, we achieve 56.8 HOTA, 58.1 IDF1 and 92.5 MOTA, making it the best online tracker capable of achieving real-time performance. Comparative evaluations with other trackers prove that our tracker achieves the best balance between speed, robustness and accuracy. Code is available at https://github.com/yfzhang1214/TCBTrack.
- Abstract(参考訳): 共同検出・埋め込み(JDE)トラッカーは,マルチオブジェクト追跡(MOT)タスクにおいて,ReID(Re-Identification Task)を検知器に埋め込むことにより,外観特徴の抽出を補助タスクとして取り入れ,推論速度と追跡性能のバランスをとることにより,優れた性能を示した。
しかし,検出器と特徴抽出器の競合を解消することは常に困難であった。
一方、ReIDタスクを直接MOTに組み込むという問題は未解決のままである。
外観の特徴に高い差別性が欠如していることは、その実用性に限界をもたらす。
本稿では,物体の時間的情報を取得するために相互相関を用いた新しい学習手法を提案する。
特徴抽出ネットワークは、もはや各フレームの外観特徴のみに基づいて訓練されるのではなく、連続するフレームからの特徴ヒートマップを利用してよりリッチな動作特徴を学習し、クラス間特徴類似性の課題に対処する。
さらに,提案手法はより軽量な特徴抽出ネットワークに適用され,得られた特徴とMOTタスクとの整合性を反映した適切な重み計算により,特徴マッチングスコアを補助的手がかりではなく強い手がかりとして扱う。
TCBTrackと名付けられた私たちのトラッカーは、複数の公開ベンチマーク、すなわちMOT17、MOT20、DanceTrackデータセットで最先端のパフォーマンスを実現しています。
特にDanceTrackテストセットでは56.8 HOTA,58.1 IDF1,92.5 MOTAを達成し,リアルタイムのパフォーマンスを実現するオンライントラッカーとして最高のものとなった。
他のトラッカーとの比較により,トラッカーの速度,頑健性,精度のバランスが良好であることが確認された。
コードはhttps://github.com/yfzhang1214/TCBTrack.comから入手できる。
関連論文リスト
- FeatureSORT: Essential Features for Effective Tracking [0.0]
本稿では,オンライン複数オブジェクト追跡のための新しいトラッカーについて紹介する。
衣料品の色やスタイル,対象方向など,異なる外観特徴を統合することで,オンライントラッキングの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-05T04:37:39Z) - Hybrid-SORT: Weak Cues Matter for Online Multi-Object Tracking [51.16677396148247]
Multi-Object Tracking (MOT) は、望まれるすべてのオブジェクトをフレーム間で検出し、関連付けることを目的としている。
本稿では,MOTにおけるこの長期的課題を,弱い手がかりを取り入れることで,効果的かつ効果的に解決できることを実証する。
提案手法は,MOT17,MOT20,特にDanceTrackなど,様々なベンチマークにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-01T18:53:24Z) - SMILEtrack: SiMIlarity LEarning for Occlusion-Aware Multiple Object
Tracking [20.286114226299237]
本稿では,SLM(Siamese Network-based similarity Learning Module)を用いたオブジェクトトラッカーSMILEtrackを紹介する。
SLMは2つのオブジェクト間の外観類似性を計算し、分離検出および埋め込みモデルにおける特徴記述子の制限を克服する。
第2に、連続するビデオフレーム間の堅牢なオブジェクトマッチングのための新しいGATE関数を備えた類似マッチングカスケード(SMC)モジュールを開発する。
論文 参考訳(メタデータ) (2022-11-16T10:49:48Z) - On the detection-to-track association for online multi-object tracking [30.883165972525347]
トラックの歴史的外観距離をインクリメンタルなガウス混合モデル(IGMM)でモデル化するハイブリッドトラックアソシエーションアルゴリズムを提案する。
3つのMOTベンチマークによる実験結果から,HTAが目標識別性能を向上し,追跡速度に多少の妥協を施すことが確認された。
論文 参考訳(メタデータ) (2021-07-01T14:44:12Z) - Distractor-Aware Fast Tracking via Dynamic Convolutions and MOT
Philosophy [63.91005999481061]
実用的長期トラッカーは、典型的には3つの重要な特性を含む。
効率的なモデル設計、効果的なグローバル再検出戦略、堅牢な気晴らし認識メカニズム。
動的畳み込み (d-convs) と多重オブジェクト追跡 (MOT) の哲学を用いて, 注意をそらした高速トラッキングを実現するための2タスクトラッキングフレームワーク(DMTrack)を提案する。
我々のトラッカーはLaSOT, OxUvA, TLP, VOT2018LT, VOT 2019LTベンチマークの最先端性能を実現し, リアルタイム3倍高速に動作させる。
論文 参考訳(メタデータ) (2021-04-25T00:59:53Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - Probabilistic Tracklet Scoring and Inpainting for Multiple Object
Tracking [83.75789829291475]
本稿では,トラックレット提案の確率的自己回帰運動モデルを提案する。
これは、我々のモデルを訓練して、自然のトラックレットの基盤となる分布を学習することで達成される。
我々の実験は、挑戦的なシーケンスにおける物体の追跡におけるアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2020-12-03T23:59:27Z) - Tracklets Predicting Based Adaptive Graph Tracking [51.352829280902114]
マルチオブジェクト追跡,すなわち textbfTPAGT のための,正確かつエンドツーエンドの学習フレームワークを提案する。
動作予測に基づいて、現在のフレーム内のトラックレットの特徴を再抽出する。
論文 参考訳(メタデータ) (2020-10-18T16:16:49Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z) - Rethinking Convolutional Features in Correlation Filter Based Tracking [0.0]
我々は階層的な機能ベースのビジュアルトラッカーを再検討し、ディープトラッカーの性能と効率の両方が、機能品質の低さによって制限されていることを発見した。
冗長な機能を取り除いた後、提案するトラッカーは性能と効率の両方で大幅に改善される。
論文 参考訳(メタデータ) (2019-12-30T04:39:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。