論文の概要: Minkowski Tracker: A Sparse Spatio-Temporal R-CNN for Joint Object
Detection and Tracking
- arxiv url: http://arxiv.org/abs/2208.10056v1
- Date: Mon, 22 Aug 2022 04:47:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:27:54.711197
- Title: Minkowski Tracker: A Sparse Spatio-Temporal R-CNN for Joint Object
Detection and Tracking
- Title(参考訳): Minkowski Tracker: 連続物体検出・追跡のためのスパース時空間R-CNN
- Authors: JunYoung Gwak, Silvio Savarese, Jeannette Bohg
- Abstract要約: 我々はオブジェクトの検出と追跡を共同で解決するスパース時間R-CNNであるMinkowski Trackerを提案する。
領域ベースCNN(R-CNN)に着想を得て,物体検出器R-CNNの第2段階として動きを追跡することを提案する。
大規模実験では,本手法の総合的な性能向上は4つの要因によることがわかった。
- 参考スコア(独自算出の注目度): 53.64390261936975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent research in multi-task learning reveals the benefit of solving related
problems in a single neural network. 3D object detection and multi-object
tracking (MOT) are two heavily intertwined problems predicting and associating
an object instance location across time. However, most previous works in 3D MOT
treat the detector as a preceding separated pipeline, disjointly taking the
output of the detector as an input to the tracker. In this work, we present
Minkowski Tracker, a sparse spatio-temporal R-CNN that jointly solves object
detection and tracking. Inspired by region-based CNN (R-CNN), we propose to
solve tracking as a second stage of the object detector R-CNN that predicts
assignment probability to tracks. First, Minkowski Tracker takes 4D point
clouds as input to generate a spatio-temporal Bird's-eye-view (BEV) feature map
through a 4D sparse convolutional encoder network. Then, our proposed
TrackAlign aggregates the track region-of-interest (ROI) features from the BEV
features. Finally, Minkowski Tracker updates the track and its confidence score
based on the detection-to-track match probability predicted from the ROI
features. We show in large-scale experiments that the overall performance gain
of our method is due to four factors: 1. The temporal reasoning of the 4D
encoder improves the detection performance 2. The multi-task learning of object
detection and MOT jointly enhances each other 3. The detection-to-track match
score learns implicit motion model to enhance track assignment 4. The
detection-to-track match score improves the quality of the track confidence
score. As a result, Minkowski Tracker achieved the state-of-the-art performance
on Nuscenes dataset tracking task without hand-designed motion models.
- Abstract(参考訳): マルチタスク学習の最近の研究は、単一のニューラルネットワークで関連する問題を解決する利点を明らかにしている。
3Dオブジェクト検出とマルチオブジェクト追跡(MOT)は、時間を通してオブジェクトインスタンスの位置を予測し、関連付ける2つの非常に絡み合った問題である。
しかし、3D MOTの以前の研究のほとんどは、検出器を前もって分離したパイプラインとして扱い、検出器の出力をトラッカーへの入力とする。
本研究では,オブジェクト検出と追跡を協調的に解決するスパース時空間R-CNNであるMinkowski Trackerを提案する。
地域ベースのCNN(R-CNN)に着想を得て、トラックへの割り当て確率を予測するオブジェクト検出器R-CNNの第2段階として、トラッキングを解決することを提案する。
まず、minkowski trackerは4dポイントクラウドを入力として、4dスパース畳み込みエンコーダネットワークを介して時空間バードズ・アイビュー(bev)特徴マップを生成する。
そして、提案したTrackAlignは、BEV機能からトラックエリア(ROI)機能を集約する。
最後に、Minkowski TrackerはROI特徴から予測される検出-トラック一致確率に基づいて、トラックとその信頼性スコアを更新する。
大規模実験の結果,提案手法の性能向上には4つの要因があることがわかった。
1. 4Dエンコーダの時間的推論による検出性能の向上
2. 物体検出とMOTのマルチタスク学習は相互に強化する
3. トラック間マッチングスコアは、暗黙の動きモデルを学び、トラック割り当てを強化する
4. トラック一致点の検出はトラック信頼点の品質を向上させる。
その結果、Minkowski Trackerは手動モデルなしでNuscenesデータセット追跡タスクの最先端のパフォーマンスを達成した。
関連論文リスト
- ByteTrackV2: 2D and 3D Multi-Object Tracking by Associating Every
Detection Box [81.45219802386444]
マルチオブジェクトトラッキング(MOT)は、ビデオフレーム間のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
低スコア検出ボックス内の真のオブジェクトをマイニングするための階層型データアソシエーション戦略を提案する。
3次元のシナリオでは、トラッカーが世界座標の物体速度を予測するのがずっと簡単である。
論文 参考訳(メタデータ) (2023-03-27T15:35:21Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - Joint 3D Object Detection and Tracking Using Spatio-Temporal
Representation of Camera Image and LiDAR Point Clouds [12.334725127696395]
カメラとLiDARセンサを用いた3次元物体検出・追跡のための新しい関節物体検出・追跡(DT)フレームワークを提案する。
提案手法は3D DetecJoと呼ばれ、検出器とトラッカーが協調してカメラとLiDARデータの時間表現を生成する。
論文 参考訳(メタデータ) (2021-12-14T02:38:45Z) - 3D-FCT: Simultaneous 3D Object Detection and Tracking Using Feature
Correlation [0.0]
3D-FCTは、時間情報を利用して3Dオブジェクトの検出と追跡の関連タスクを同時に実行するシームズネットワークアーキテクチャである。
提案手法は,最先端手法よりも5.57%mAPの改善が期待できるKITTI追跡データセットを用いて評価した。
論文 参考訳(メタデータ) (2021-10-06T06:36:29Z) - Exploring Simple 3D Multi-Object Tracking for Autonomous Driving [10.921208239968827]
LiDARポイントクラウドにおける3Dマルチオブジェクトトラッキングは、自動運転車にとって重要な要素である。
既存の手法は、主にトラッキング・バイ・検出パイプラインに基づいており、検出アソシエーションのマッチングステップが必然的に必要である。
我々は,手作りの追跡パラダイムをシンプルにするために,原点雲からの共同検出と追跡のためのエンドツーエンドのトレーニング可能なモデルを提案する。
論文 参考訳(メタデータ) (2021-08-23T17:59:22Z) - On the detection-to-track association for online multi-object tracking [30.883165972525347]
トラックの歴史的外観距離をインクリメンタルなガウス混合モデル(IGMM)でモデル化するハイブリッドトラックアソシエーションアルゴリズムを提案する。
3つのMOTベンチマークによる実験結果から,HTAが目標識別性能を向上し,追跡速度に多少の妥協を施すことが確認された。
論文 参考訳(メタデータ) (2021-07-01T14:44:12Z) - Track to Detect and Segment: An Online Multi-Object Tracker [81.15608245513208]
TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
論文 参考訳(メタデータ) (2021-03-16T02:34:06Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。