論文の概要: StrongSORT: Make DeepSORT Great Again
- arxiv url: http://arxiv.org/abs/2202.13514v1
- Date: Mon, 28 Feb 2022 02:37:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 08:31:19.240191
- Title: StrongSORT: Make DeepSORT Great Again
- Title(参考訳): StrongSORT: DeepSORTを再び素晴らしいものにする
- Authors: Yunhao Du, Yang Song, Bo Yang, Yanyun Zhao
- Abstract要約: 我々は、古典的なトラッカーであるDeepSORTを再検討し、検出、埋め込み、関連付けといった様々な側面からアップグレードする。
結果、StrongSORTと呼ばれるトラッカーは、MOT17とMOT20に新しいHOTAとIDF1レコードをセットする。
追跡結果をさらに改善するために,軽量かつプラグアンドプレイのアルゴリズムを2つ提案する。
- 参考スコア(独自算出の注目度): 19.099510933467148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing Multi-Object Tracking (MOT) methods can be roughly classified as
tracking-by-detection and joint-detection-association paradigms. Although the
latter has elicited more attention and demonstrates comparable performance
relative to the former, we claim that the tracking-by-detection paradigm is
still the optimal solution in terms of tracking accuracy. In this paper, we
revisit the classic tracker DeepSORT and upgrade it from various aspects, i.e.,
detection, embedding and association. The resulting tracker, called StrongSORT,
sets new HOTA and IDF1 records on MOT17 and MOT20. We also present two
lightweight and plug-and-play algorithms to further refine the tracking
results. Firstly, an appearance-free link model (AFLink) is proposed to
associate short tracklets into complete trajectories. To the best of our
knowledge, this is the first global link model without appearance information.
Secondly, we propose Gaussian-smoothed interpolation (GSI) to compensate for
missing detections. Instead of ignoring motion information like linear
interpolation, GSI is based on the Gaussian process regression algorithm and
can achieve more accurate localizations. Moreover, AFLink and GSI can be
plugged into various trackers with a negligible extra computational cost (591.9
and 140.9 Hz, respectively, on MOT17). By integrating StrongSORT with the two
algorithms, the final tracker StrongSORT++ ranks first on MOT17 and MOT20 in
terms of HOTA and IDF1 metrics and surpasses the second-place one by 1.3 - 2.2.
Code will be released soon.
- Abstract(参考訳): 既存のマルチオブジェクトトラッキング(mot)メソッドは、トラッキングバイ検出とジョイント検出・結合パラダイムに大別することができる。
後者は注意を喚起し,前者と比較して同等の性能を示すが,追跡・検出パラダイムはいまだに追跡精度の面では最適解であると主張する。
本稿では,従来のトラッカーであるDeepSORTを再検討し,検出,埋め込み,アソシエーションといった様々な側面からアップグレードする。
結果、StrongSORTと呼ばれるトラッカーは、MOT17とMOT20に新しいHOTAとIDF1レコードをセットする。
また、追跡結果をさらに改善するために、軽量かつプラグアンドプレイのアルゴリズムを2つ提示する。
まず, 短いトラックレットを完全軌跡に関連付けるために, 外観自由リンクモデル (aflink) を提案する。
私たちの知る限りでは、これは外観情報のない最初のグローバルリンクモデルです。
次に,欠損検出を補うためにガウス平滑補間法(GSI)を提案する。
線形補間のような動き情報を無視する代わりに、GSIはガウス過程回帰アルゴリズムに基づいており、より正確なローカライゼーションを実現することができる。
さらに、AFLink と GSI は、MOT17 上でそれぞれ591.9 と 140.9 Hz)の余分な計算コストで様々なトラッカーに接続することができる。
StrongSORTと2つのアルゴリズムを統合することで、最終トラッカーStrongSORT++は、HOTAとIDF1のメトリクスでMOT17とMOT20にランクインし、第2位を1.3から2.2で上回る。
コードはまもなくリリースされる。
関連論文リスト
- LITE: A Paradigm Shift in Multi-Object Tracking with Efficient ReID Feature Integration [0.3277163122167433]
マルチオブジェクト追跡(MOT)手法として,軽量な統合的追跡機能抽出パラダイムが導入された。
推論、前処理、後処理、ReIDモデルのトレーニングコストを削減して、ReIDベースのトラッカーを強化する。
論文 参考訳(メタデータ) (2024-09-06T11:05:12Z) - RTAT: A Robust Two-stage Association Tracker for Multi-Object Tracking [12.406076162419877]
RTATと呼ばれるロバスト2段アソシエーショントラッカーを提案する。
第1段のアソシエーションは、トラックレットと検出の間で行われ、高い純度でトラックレットを生成する。
第2段のアソシエーションはトラックレット間で行われ、完全な軌跡を形成する。
私たちのトラッカーは、主要なMOTメトリクスのほとんどでMOT17とMOT20ベンチマークのテストセットで第1位です。
論文 参考訳(メタデータ) (2024-08-14T07:37:24Z) - Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Comparative study of multi-person tracking methods [0.0]
本研究の目的は,これらの手法の発見と追跡パイプラインにおけるこれらのアルゴリズムに関する有用な洞察を提供することである。
われわれはMOT17Detデータセットを用いて歩行者検出モデルを訓練した。
次に,トラクタ++がSORTよりも優れたマルチパーソントラッキングアルゴリズムであることを示す実験結果を示す。
論文 参考訳(メタデータ) (2023-10-07T14:29:57Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Joint Feature Learning and Relation Modeling for Tracking: A One-Stream
Framework [76.70603443624012]
特徴学習と関係モデリングを統合した新しい一ストリーム追跡(OSTrack)フレームワークを提案する。
このようにして、相互誘導により識別的目標指向特徴を動的に抽出することができる。
OSTrackは、複数のベンチマークで最先端のパフォーマンスを実現しており、特に、ワンショットトラッキングベンチマークのGOT-10kでは印象的な結果を示している。
論文 参考訳(メタデータ) (2022-03-22T18:37:11Z) - Multi-object Tracking with Tracked Object Bounding Box Association [18.539658212171062]
CenterTrack Trackingアルゴリズムは,単純な検出モデルと単一フレーム空間オフセットを用いて,最先端のトラッキング性能を実現する。
本研究では,CenterTrackアルゴリズムに,現在のフレームに基づく単純なトラッキングオブジェクトバウンディングボックスと重複予測を組み込むことを提案する。
論文 参考訳(メタデータ) (2021-05-17T14:32:47Z) - Global Correlation Network: End-to-End Joint Multi-Object Detection and
Tracking [2.749204052800622]
本稿では,global correlation network (gcnet) という,エンドツーエンドでマルチオブジェクト検出と追跡を行うネットワークを提案する。
gcnetはオフセット予測の代わりに絶対サイズと境界ボックスの座標の回帰のためにグローバル相関層を導入する。
GCNetによる検出と追跡のパイプラインは概念的にはシンプルで、非最大抑制、データアソシエーション、その他の複雑な追跡戦略を必要としない。
論文 参考訳(メタデータ) (2021-03-23T13:16:42Z) - Chained-Tracker: Chaining Paired Attentive Regression Results for
End-to-End Joint Multiple-Object Detection and Tracking [102.31092931373232]
そこで我々は,3つのサブタスク全てをエンド・ツー・エンドのソリューションに統合する簡単なオンラインモデルである Chained-Tracker (CTracker) を提案する。
鎖状構造と対の注意的回帰という2つの大きな特徴は、CTrackerをシンプルに、速く、効果的にする。
論文 参考訳(メタデータ) (2020-07-29T02:38:49Z) - Quasi-Dense Similarity Learning for Multiple Object Tracking [82.93471035675299]
本稿では, コントラスト学習のための画像に対して, 数百の領域提案を高密度にサンプリングする準高次類似性学習を提案する。
この類似性学習と既存の検出手法を直接組み合わせてQuasi-Dense Tracking(QDTrack)を構築することができる。
論文 参考訳(メタデータ) (2020-06-11T17:57:12Z) - Tracking by Instance Detection: A Meta-Learning Approach [99.66119903655711]
本稿では,高性能トラッカー構築のための3段階の原理的手法を提案する。
我々は2つの現代的な検出器であるRetinaNetとFCOSをベースに、Retina-MAMLとFCOS-MAMLという2つのトラッカーを構築した。
両方のトラッカーは40FPSでリアルタイムに動作します。
論文 参考訳(メタデータ) (2020-04-02T05:55:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。