論文の概要: BoT-SORT: Robust Associations Multi-Pedestrian Tracking
- arxiv url: http://arxiv.org/abs/2206.14651v1
- Date: Wed, 29 Jun 2022 13:45:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-30 20:28:41.200855
- Title: BoT-SORT: Robust Associations Multi-Pedestrian Tracking
- Title(参考訳): BoT-SORT:Robust Associations Multi-Pedestrian Tracking
- Authors: Nir Aharon, Roy Orfaig, Ben-Zion Bobrovsky
- Abstract要約: マルチオブジェクト追跡(MOT)の目標は、各オブジェクトに固有の識別子を保持しながら、シーン内のすべてのオブジェクトを検出し、追跡することである。
動作情報と外観情報の利点とカメラモーション補償を組み合わせた,新しいロバストな最先端トラッカーを提案する。
新しいトラッカーBoT-SORTとBoT-SORT-ReIDは、まずMOT17とMOT20テストセットのMOTChallenge [29, 11]のデータセットでランク付けします。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of multi-object tracking (MOT) is detecting and tracking all the
objects in a scene, while keeping a unique identifier for each object. In this
paper, we present a new robust state-of-the-art tracker, which can combine the
advantages of motion and appearance information, along with camera-motion
compensation, and a more accurate Kalman filter state vector. Our new trackers
BoT-SORT, and BoT-SORT-ReID rank first in the datasets of MOTChallenge [29, 11]
on both MOT17 and MOT20 test sets, in terms of all the main MOT metrics: MOTA,
IDF1, and HOTA. For MOT17: 80.5 MOTA, 80.2 IDF1, and 65.0 HOTA are achieved.
The source code and the pre-trained models are available at
https://github.com/NirAharon/BOT-SORT
- Abstract(参考訳): マルチオブジェクト追跡(MOT)の目標は、各オブジェクトに固有の識別子を保持しながら、シーン内のすべてのオブジェクトを検出し、追跡することである。
本稿では,動き情報と外観情報の利点とカメラモーション補正と,より正確なカルマンフィルタ状態ベクトルを組み合わせた,新しいロバストな最先端トラッカーを提案する。
新しいトラッカーであるBoT-SORTとBoT-SORT-ReIDは、まずMOT17とMOT20テストセットのMOTChallenge [29, 11]のデータセットで、MOTA、IDF1、HOTAのすべての主要なMOTメトリクスでランク付けします。
MOT17では80.5 MOTA、80.2 IDF1、65.0 HOTAが達成される。
ソースコードと事前トレーニングされたモデルはhttps://github.com/NirAharon/BOT-SORTで公開されている。
関連論文リスト
- CAMOT: Camera Angle-aware Multi-Object Tracking [4.2056926734482065]
本稿では,マルチオブジェクト追跡のための簡易カメラアングル推定器であるCAMOTを提案する。
複数の物体が各ビデオフレームの平面上に位置していると仮定すると、CAMOTは物体検出を用いてカメラの角度を推定する。
提案手法をMOT17とMOT20データセット上の様々な2次元MOT手法に付加して評価し,その有効性を確認した。
論文 参考訳(メタデータ) (2024-09-26T04:40:38Z) - Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - UTOPIA: Unconstrained Tracking Objects without Preliminary Examination
via Cross-Domain Adaptation [26.293108793029297]
多重オブジェクト追跡(MOT)は、連続したビデオフレーム内で対象オブジェクトのバウンディングボックスとIDを見つけることを目的としている。
完全に教師されたMOTメソッドは、既存のデータセットで高い精度を達成したが、新たに取得したデータセットや新しい未知のドメインではうまく一般化できない。
本稿では、まず、ドメイン間の観点からMOT問題に対処し、実際に新しいデータ取得のプロセスを模倣する。
既存のデータセットからの新たなクロスドメインMOT適応は、オブジェクトの理解とモデリングに関する人間の知識を事前に定義せずに提案されている。
論文 参考訳(メタデータ) (2023-06-16T04:06:15Z) - Strong-TransCenter: Improved Multi-Object Tracking based on Transformers
with Dense Representations [1.2891210250935146]
TransCenterはトランスフォーマーベースのMOTアーキテクチャで、すべてのオブジェクトを正確に追跡するための高密度なオブジェクトクエリを備えている。
本稿では,トラック・バイ・ディテクト・パラダイムに基づくポスト処理機構を用いたトラッカーの改良について述べる。
新しいトラッカーでは,IDF1とHOTAの指標が大幅に改善され,MOTAの指標に匹敵する結果が得られた。
論文 参考訳(メタデータ) (2022-10-24T19:47:58Z) - StrongSORT: Make DeepSORT Great Again [19.099510933467148]
我々は、古典的なトラッカーであるDeepSORTを再検討し、検出、埋め込み、関連付けといった様々な側面からアップグレードする。
結果、StrongSORTと呼ばれるトラッカーは、MOT17とMOT20に新しいHOTAとIDF1レコードをセットする。
追跡結果をさらに改善するために,軽量かつプラグアンドプレイのアルゴリズムを2つ提案する。
論文 参考訳(メタデータ) (2022-02-28T02:37:19Z) - ByteTrack: Multi-Object Tracking by Associating Every Detection Box [51.93588012109943]
マルチオブジェクトトラッキング(MOT)は、ビデオ内のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
ほとんどの方法は、スコアがしきい値よりも高い検出ボックスを連想させることでアイデンティティを得る。
本稿では,BYTEと呼ばれるシンプルで効果的で汎用的なアソシエーション手法を提案する。
論文 参考訳(メタデータ) (2021-10-13T17:01:26Z) - Probabilistic Tracklet Scoring and Inpainting for Multiple Object
Tracking [83.75789829291475]
本稿では,トラックレット提案の確率的自己回帰運動モデルを提案する。
これは、我々のモデルを訓練して、自然のトラックレットの基盤となる分布を学習することで達成される。
我々の実験は、挑戦的なシーケンスにおける物体の追跡におけるアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2020-12-03T23:59:27Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z) - Quasi-Dense Similarity Learning for Multiple Object Tracking [82.93471035675299]
本稿では, コントラスト学習のための画像に対して, 数百の領域提案を高密度にサンプリングする準高次類似性学習を提案する。
この類似性学習と既存の検出手法を直接組み合わせてQuasi-Dense Tracking(QDTrack)を構築することができる。
論文 参考訳(メタデータ) (2020-06-11T17:57:12Z) - Tracking Objects as Points [83.9217787335878]
同時に検出と追跡を同時に行うアルゴリズムは,最先端技術よりもシンプルで,高速で,高精度である。
トラッカーであるCenterTrackは、前のフレームから一対のイメージと検出に検出モデルを適用します。
CenterTrackはシンプルで、オンライン(未来を覗くことはない)で、リアルタイムだ。
論文 参考訳(メタデータ) (2020-04-02T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。