論文の概要: DFR-FastMOT: Detection Failure Resistant Tracker for Fast Multi-Object
Tracking Based on Sensor Fusion
- arxiv url: http://arxiv.org/abs/2302.14807v1
- Date: Tue, 28 Feb 2023 17:57:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 15:03:07.158839
- Title: DFR-FastMOT: Detection Failure Resistant Tracker for Fast Multi-Object
Tracking Based on Sensor Fusion
- Title(参考訳): DFR-FastMOT:センサフュージョンに基づく高速多物体追跡のための耐故障トラッカー
- Authors: Mohamed Nagy, Majid Khonji, Jorge Dias and Sajid Javed
- Abstract要約: 永続多物体追跡(MOT)により、自動運転車は高度にダイナミックな環境で安全に走行することができる。
MOTのよく知られた課題の1つは、オブジェクトがその後のフレームで観測不能になったときのオブジェクトの閉塞である。
カメラとLiDARセンサのデータを用いた光MOT法であるDFR-FastMOTを提案する。
我々のフレームワークは約7,763フレームを1.48秒で処理します。
- 参考スコア(独自算出の注目度): 7.845528514468835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Persistent multi-object tracking (MOT) allows autonomous vehicles to navigate
safely in highly dynamic environments. One of the well-known challenges in MOT
is object occlusion when an object becomes unobservant for subsequent frames.
The current MOT methods store objects information, like objects' trajectory, in
internal memory to recover the objects after occlusions. However, they retain
short-term memory to save computational time and avoid slowing down the MOT
method. As a result, they lose track of objects in some occlusion scenarios,
particularly long ones. In this paper, we propose DFR-FastMOT, a light MOT
method that uses data from a camera and LiDAR sensors and relies on an
algebraic formulation for object association and fusion. The formulation boosts
the computational time and permits long-term memory that tackles more occlusion
scenarios. Our method shows outstanding tracking performance over recent
learning and non-learning benchmarks with about 3% and 4% margin in MOTA,
respectively. Also, we conduct extensive experiments that simulate occlusion
phenomena by employing detectors with various distortion levels. The proposed
solution enables superior performance under various distortion levels in
detection over current state-of-art methods. Our framework processes about
7,763 frames in 1.48 seconds, which is seven times faster than recent
benchmarks. The framework will be available at
https://github.com/MohamedNagyMostafa/DFR-FastMOT.
- Abstract(参考訳): 永続多物体追跡(MOT)により、自動運転車は高度にダイナミックな環境で安全に走行することができる。
MOTのよく知られた課題の1つは、オブジェクトがその後のフレームで観測不能になったときのオブジェクトの閉塞である。
現在のMOTメソッドは、オブジェクトの軌跡のようなオブジェクト情報を内部メモリに格納し、閉塞後のオブジェクトを復元する。
しかし、計算時間を節約し、MOTメソッドを遅くするのを避けるために、短期記憶を保持する。
結果として、いくつかの閉塞シナリオ、特に長いシナリオにおいて、オブジェクトの追跡を失う。
本稿では,dfr-fastmotを提案する。カメラとlidarセンサーからのデータを用いて,物体の結合と融合のための代数的定式化を行う軽量mot手法である。
この定式化は計算時間を増加させ、より多くの閉塞シナリオに取り組む長期記憶を可能にする。
提案手法は,最近の学習および非学習ベンチマークと比較して,それぞれ3%,4%のマージンで優れた追跡性能を示す。
また,種々の歪みレベルの検出器を用いて咬合現象をシミュレートする実験を行った。
提案手法は,現在の最先端手法による検出において,様々な歪みレベル下での優れた性能を実現する。
私たちのフレームワークは、1.48秒で約7,763フレームを処理します。
このフレームワークはhttps://github.com/MohamedNagyMostafa/DFR-FastMOT.comから入手できる。
関連論文リスト
- TASeg: Temporal Aggregation Network for LiDAR Semantic Segmentation [80.13343299606146]
そこで本稿では, 時系列LiDARアグリゲーション・蒸留(TLAD)アルゴリズムを提案する。
時間画像のフル活用を目的として,カメラFOVを大幅に拡張できるTIAFモジュールを設計した。
また,静的移動スイッチ拡張(SMSA)アルゴリズムを開発し,時間的情報を利用してオブジェクトの動作状態を自由に切り替える。
論文 参考訳(メタデータ) (2024-07-13T03:00:16Z) - Ego-Motion Aware Target Prediction Module for Robust Multi-Object Tracking [2.7898966850590625]
我々は、Ego-motion Aware Target Prediction (EMAP)と呼ばれる新しいKFベースの予測モジュールを導入する。
提案手法は、カルマンフィルタを再構成することにより、物体軌道からのカメラ回転速度と翻訳速度の影響を分離する。
EMAPはOC-SORTとDeep OC-SORTのIDSWをそれぞれ73%と21%減少させる。
論文 参考訳(メタデータ) (2024-04-03T23:24:25Z) - PTT: Point-Trajectory Transformer for Efficient Temporal 3D Object Detection [66.94819989912823]
時間的3次元物体検出を効率的に行うために,長期記憶が可能な点トラジェクトリ変換器を提案する。
私たちは、メモリバンクのストレージ要件を最小限に抑えるために、現在のフレームオブジェクトのポイントクラウドとその履歴トラジェクトリを入力として使用します。
大規模データセットに対する広範な実験を行い、我々のアプローチが最先端の手法に対してうまく機能することを実証した。
論文 参考訳(メタデータ) (2023-12-13T18:59:13Z) - MeMOTR: Long-Term Memory-Augmented Transformer for Multi-Object Tracking [19.173503245000678]
マルチオブジェクト追跡のための長期メモリ拡張トランスであるMeMOTRを提案する。
MeMOTRは最先端のメソッドを7.9%、HOTAとAssAのメトリクスで13.0%上回っている。
また、MOT17上でのアソシエーション性能の他のTransformerベースの手法よりも優れており、BDD100Kでよく一般化されている。
論文 参考訳(メタデータ) (2023-07-28T17:50:09Z) - TrajectoryFormer: 3D Object Tracking Transformer with Predictive
Trajectory Hypotheses [51.60422927416087]
3Dマルチオブジェクトトラッキング(MOT)は、自律走行車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,新しいポイントクラウドベースの3DMOTフレームワークであるTrjectoryFormerを紹介する。
論文 参考訳(メタデータ) (2023-06-09T13:31:50Z) - ByteTrackV2: 2D and 3D Multi-Object Tracking by Associating Every
Detection Box [81.45219802386444]
マルチオブジェクトトラッキング(MOT)は、ビデオフレーム間のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
低スコア検出ボックス内の真のオブジェクトをマイニングするための階層型データアソシエーション戦略を提案する。
3次元のシナリオでは、トラッカーが世界座標の物体速度を予測するのがずっと簡単である。
論文 参考訳(メタデータ) (2023-03-27T15:35:21Z) - CAMO-MOT: Combined Appearance-Motion Optimization for 3D Multi-Object
Tracking with Camera-LiDAR Fusion [34.42289908350286]
3D Multi-object Track (MOT) は、連続的な動的検出時の一貫性を保証する。
LiDAR法で物体の不規則な動きを正確に追跡することは困難である。
複合外観運動最適化(CAMO-MOT)に基づく新しいカメラ-LiDAR融合3DMOTフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-06T14:41:38Z) - DeepFusionMOT: A 3D Multi-Object Tracking Framework Based on
Camera-LiDAR Fusion with Deep Association [8.34219107351442]
本稿では,精度と速度の良好なトレードオフを実現するために,カメラ-LiDAR融合型MOT法を提案する。
提案手法は、追跡精度と処理速度の両方の観点から、最先端MOT法に対して明らかな利点を示す。
論文 参考訳(メタデータ) (2022-02-24T13:36:29Z) - Distractor-Aware Fast Tracking via Dynamic Convolutions and MOT
Philosophy [63.91005999481061]
実用的長期トラッカーは、典型的には3つの重要な特性を含む。
効率的なモデル設計、効果的なグローバル再検出戦略、堅牢な気晴らし認識メカニズム。
動的畳み込み (d-convs) と多重オブジェクト追跡 (MOT) の哲学を用いて, 注意をそらした高速トラッキングを実現するための2タスクトラッキングフレームワーク(DMTrack)を提案する。
我々のトラッカーはLaSOT, OxUvA, TLP, VOT2018LT, VOT 2019LTベンチマークの最先端性能を実現し, リアルタイム3倍高速に動作させる。
論文 参考訳(メタデータ) (2021-04-25T00:59:53Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。