論文の概要: Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking
- arxiv url: http://arxiv.org/abs/2008.08826v1
- Date: Thu, 20 Aug 2020 08:05:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 03:41:35.907984
- Title: Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking
- Title(参考訳): 複数物体追跡のための運動モデルによる同時検出と追跡
- Authors: ShiJie Sun, Naveed Akhtar, XiangYu Song, HuanSheng Song, Ajmal Mian,
Mubarak Shah
- Abstract要約: 本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
- 参考スコア(独自算出の注目度): 94.24393546459424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based Multiple Object Tracking (MOT) currently relies on
off-the-shelf detectors for tracking-by-detection.This results in deep models
that are detector biased and evaluations that are detector influenced. To
resolve this issue, we introduce Deep Motion Modeling Network (DMM-Net) that
can estimate multiple objects' motion parameters to perform joint detection and
association in an end-to-end manner. DMM-Net models object features over
multiple frames and simultaneously infers object classes, visibility, and their
motion parameters. These outputs are readily used to update the tracklets for
efficient MOT. DMM-Net achieves PR-MOTA score of 12.80 @ 120+ fps for the
popular UA-DETRAC challenge, which is better performance and orders of
magnitude faster. We also contribute a synthetic large-scale public dataset
Omni-MOT for vehicle tracking that provides precise ground-truth annotations to
eliminate the detector influence in MOT evaluation. This 14M+ frames dataset is
extendable with our public script (Code at Dataset
<https://github.com/shijieS/OmniMOTDataset>, Dataset Recorder
<https://github.com/shijieS/OMOTDRecorder>, Omni-MOT Source
<https://github.com/shijieS/DMMN>). We demonstrate the suitability of Omni-MOT
for deep learning with DMMNet and also make the source code of our network
public.
- Abstract(参考訳): 深層学習に基づく多重物体追跡(mot)は,現在,市販の物体検出装置を用いて検出毎に追跡を行っている。
この問題を解決するために,複数の物体の運動パラメータを推定し,エンドツーエンドで共同検出と関連付けを行うディープモーションモデリングネットワーク(DMM-Net)を導入する。
DMM-Netモデルは複数のフレーム上にオブジェクトを配置し、同時にオブジェクトクラス、可視性、およびそれらの動作パラメータを推論する。
これらの出力は、効率的なMOTのためにトラックレットを更新するために容易に使用される。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための総合的な大規模公開データセットであるomni-mot(omni-mot)も提供し,mot評価における検出器の影響をなくすための正確な地中アノテーションを提供する。
この14M+フレームデータセットは、私たちのパブリックスクリプトで拡張可能です(Code at Dataset <https://github.com/shijieS/OmniMOTDataset>, Dataset Recorder <https://github.com/shijieS/OMOTDRecorder>, Omni-MOT Source <https://github.com/shijieS/DMMN>)。
我々は,DMMNetを用いた深層学習におけるOmni-MOTの適合性を実証するとともに,我々のネットワークのソースコードを公開する。
関連論文リスト
- MCTrack: A Unified 3D Multi-Object Tracking Framework for Autonomous Driving [10.399817864597347]
本稿では,KITTI, nuScenes, データセット間でのSOTA(State-of-the-art)性能を実現する3Dマルチオブジェクトトラッキング手法であるMCTrackを紹介する。
論文 参考訳(メタデータ) (2024-09-23T11:26:01Z) - MotionTrack: End-to-End Transformer-based Multi-Object Tracing with
LiDAR-Camera Fusion [13.125168307241765]
複数のクラスでオブジェクトを追跡するための多モードセンサ入力を用いたエンドツーエンドトランスフォーマーベースMOTアルゴリズム(MotionTrack)を提案する。
MotionTrackとそのバリエーションは、他の古典的なベースラインモデルと比較して、nuScenesデータセット上のより良い結果(AMOTAスコア0.55)を達成する。
論文 参考訳(メタデータ) (2023-06-29T15:00:12Z) - TrajectoryFormer: 3D Object Tracking Transformer with Predictive
Trajectory Hypotheses [51.60422927416087]
3Dマルチオブジェクトトラッキング(MOT)は、自律走行車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,新しいポイントクラウドベースの3DMOTフレームワークであるTrjectoryFormerを紹介する。
論文 参考訳(メタデータ) (2023-06-09T13:31:50Z) - You Only Need Two Detectors to Achieve Multi-Modal 3D Multi-Object Tracking [9.20064374262956]
提案手法は,2次元検出器と3次元検出器のみを用いて,ロバストなトラッキングを実現する。
多くの最先端のTBDベースのマルチモーダルトラッキング手法よりも正確であることが証明されている。
論文 参考訳(メタデータ) (2023-04-18T02:45:18Z) - Minkowski Tracker: A Sparse Spatio-Temporal R-CNN for Joint Object
Detection and Tracking [53.64390261936975]
我々はオブジェクトの検出と追跡を共同で解決するスパース時間R-CNNであるMinkowski Trackerを提案する。
領域ベースCNN(R-CNN)に着想を得て,物体検出器R-CNNの第2段階として動きを追跡することを提案する。
大規模実験では,本手法の総合的な性能向上は4つの要因によることがわかった。
論文 参考訳(メタデータ) (2022-08-22T04:47:40Z) - SOMPT22: A Surveillance Oriented Multi-Pedestrian Tracking Dataset [5.962184741057505]
我々はSOMPT22データセットを紹介した。これは、都市監視のための高さ6-8mのポール上の静止カメラから撮影した注釈付きショートビデオを備えた、複数人の追跡のための新しいセットである。
我々は,新しいデータセット上での検出とreIDネットワークの利用方法について,MOTトラッカーをワンショットと2ステージに分類して分析する。
我々の新しいデータセットの実験結果から、SOTAは依然として高効率には程遠いことが示され、シングルショットトラッカーは高速実行と精度を競合性能と一体化するための良い候補である。
論文 参考訳(メタデータ) (2022-08-04T11:09:19Z) - Track to Detect and Segment: An Online Multi-Object Tracker [81.15608245513208]
TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
論文 参考訳(メタデータ) (2021-03-16T02:34:06Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z) - Joint Object Detection and Multi-Object Tracking with Graph Neural
Networks [32.1359455541169]
グラフニューラルネットワーク(GNN)に基づく共同MOT手法の新たな例を提案する。
我々は,GNNベースの共同MOT手法の有効性を示し,検出タスクとMOTタスクの両方に対して最先端の性能を示す。
論文 参考訳(メタデータ) (2020-06-23T17:07:00Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。