論文の概要: Detection Is Tracking: Point Cloud Multi-Sweep Deep Learning Models
Revisited
- arxiv url: http://arxiv.org/abs/2402.15756v1
- Date: Sat, 24 Feb 2024 08:07:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 17:15:18.008937
- Title: Detection Is Tracking: Point Cloud Multi-Sweep Deep Learning Models
Revisited
- Title(参考訳): 検出と追跡 - point cloud multi-sweepディープラーニングモデルの再検討
- Authors: Lingji Chen
- Abstract要約: 自律運転では、ライダー測定は通常、ディープラーニングモデルによって実現された「仮想センサー」を介して行われる。
本稿では,このような入力には時間的情報が含まれており,仮想センサの出力には時間的情報も含むべきであると論じる。
本稿では,MULti-Sweep PAired Detector (MULSPAD)と呼ばれる深層学習モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional tracking paradigm takes in instantaneous measurements such as
range and bearing, and produces object tracks across time. In applications such
as autonomous driving, lidar measurements in the form of point clouds are
usually passed through a "virtual sensor" realized by a deep learning model, to
produce "measurements" such as bounding boxes, which are in turn ingested by a
tracking module to produce object tracks. Very often multiple lidar sweeps are
accumulated in a buffer to merge and become the input to the virtual sensor. We
argue in this paper that such an input already contains temporal information,
and therefore the virtual sensor output should also contain temporal
information, not just instantaneous values for the time corresponding to the
end of the buffer. In particular, we present the deep learning model called
MULti-Sweep PAired Detector (MULSPAD) that produces, for each detected object,
a pair of bounding boxes at both the end time and the beginning time of the
input buffer. This is achieved with fairly straightforward changes in commonly
used lidar detection models, and with only marginal extra processing, but the
resulting symmetry is satisfying. Such paired detections make it possible not
only to construct rudimentary trackers fairly easily, but also to construct
more sophisticated trackers that can exploit the extra information conveyed by
the pair and be robust to choices of motion models and object birth/death
models. We have conducted preliminary training and experimentation using Waymo
Open Dataset, which shows the efficacy of our proposed method.
- Abstract(参考訳): 従来のトラッキングパラダイムは、範囲やベアリングなどの瞬時に測定を行い、時間をかけてオブジェクトトラックを生成する。
自動運転などのアプリケーションでは、ポイントクラウド形式のライダー計測は通常、ディープラーニングモデルによって実現された"仮想センサー"を通じて、境界ボックスなどの"測定"を生成し、それが追跡モジュールによって取り込まれてオブジェクトのトラックを生成する。
しばしば複数のライダースイープがバッファに蓄積されてマージされ、仮想センサへの入力となる。
本稿では,このような入力には既に時間情報が含まれていることを論じる。そのため,仮想センサ出力にはバッファの終端に対応する時点の瞬時値だけでなく,時間情報も含まなければならない。
特に,マルチスウィープ対検出器(mulspad)と呼ばれるディープラーニングモデルを提案し,各検出対象に対して,入力バッファの終了時刻と開始時刻の両方に一対のバウンディングボックスを生成する。
これは、一般的なlidar検出モデルでかなり単純な変更で実現され、余分な処理しか行わないが、結果として得られる対称性は満足できる。
このようなペア検出により、初歩的なトラッカーを比較的容易に構築できるだけでなく、ペアが伝達する余分な情報を利用して、モーションモデルやオブジェクトの生死モデルの選択に堅牢な、より洗練されたトラッカーを構築することができる。
提案手法の有効性を示すWaymo Open Datasetを用いて,予備訓練および実験を行った。
関連論文リスト
- Sliding Window Neural Generated Tracking Based on Measurement Model [0.0]
本稿では,Kalmanフィルタが生成したトラックと,提案したニューラルネットワークが生成したトラックを最終的に比較することを目的とした,ドローンのトラック予測におけるフィードフォワードニューラルネットワークの有効性について検討する。
提案するニューラルネットワークトラッカーのユニークな特徴は、トラックの次の状態を推定するために測定モデルのみを使用していることである。
論文 参考訳(メタデータ) (2023-06-10T12:57:57Z) - TrajectoryFormer: 3D Object Tracking Transformer with Predictive
Trajectory Hypotheses [51.60422927416087]
3Dマルチオブジェクトトラッキング(MOT)は、自律走行車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,新しいポイントクラウドベースの3DMOTフレームワークであるTrjectoryFormerを紹介する。
論文 参考訳(メタデータ) (2023-06-09T13:31:50Z) - Transformers for Multi-Object Tracking on Point Clouds [9.287964414592826]
TransMOTは、新しいトランスフォーマーベースのトレーニング可能なオンライントラッカーで、ポイントクラウドデータのための検出器である。
このモデルはクロス・アンド・セルフ・アテンション・メカニズムを利用しており、自動車のコンテキストにおけるライダーデータに適用可能である。
提案したモデルは、Kalmanフィルタベースのトラッキングベースラインよりも優れている。
論文 参考訳(メタデータ) (2022-05-31T12:20:54Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - Exploring Simple 3D Multi-Object Tracking for Autonomous Driving [10.921208239968827]
LiDARポイントクラウドにおける3Dマルチオブジェクトトラッキングは、自動運転車にとって重要な要素である。
既存の手法は、主にトラッキング・バイ・検出パイプラインに基づいており、検出アソシエーションのマッチングステップが必然的に必要である。
我々は,手作りの追跡パラダイムをシンプルにするために,原点雲からの共同検出と追跡のためのエンドツーエンドのトレーニング可能なモデルを提案する。
論文 参考訳(メタデータ) (2021-08-23T17:59:22Z) - Learning Spatio-Temporal Transformer for Visual Tracking [108.11680070733598]
本稿では,エンコーダ・デコーダ変換器をキーコンポーネントとする新しいトラッキングアーキテクチャを提案する。
メソッド全体がエンドツーエンドであり、コサインウィンドウやバウンディングボックススムーシングのような後処理ステップは不要である。
提案されたトラッカーは、Siam R-CNNよりも6倍速いリアルタイム速度を実行しながら、5つのチャレンジングな短期および長期ベンチマークで最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-03-31T15:19:19Z) - Probabilistic Tracklet Scoring and Inpainting for Multiple Object
Tracking [83.75789829291475]
本稿では,トラックレット提案の確率的自己回帰運動モデルを提案する。
これは、我々のモデルを訓練して、自然のトラックレットの基盤となる分布を学習することで達成される。
我々の実験は、挑戦的なシーケンスにおける物体の追跡におけるアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2020-12-03T23:59:27Z) - Faster object tracking pipeline for real time tracking [0.0]
マルチオブジェクトトラッキング(MOT)は、視覚ベースのアプリケーションにとって難しい実践的問題である。
本稿では,検出に基づく物体追跡手法の高速化に有効な汎用パイプラインについて紹介する。
論文 参考訳(メタデータ) (2020-11-08T06:33:48Z) - Tracking from Patterns: Learning Corresponding Patterns in Point Clouds
for 3D Object Tracking [34.40019455462043]
本稿では,時間点雲データから3次元オブジェクト対応を学習し,対応パターンから動き情報を推測する。
提案手法は,KITTIと大規模Nuscenesデータセットの双方において,既存の3次元追跡手法を超えている。
論文 参考訳(メタデータ) (2020-10-20T06:07:20Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。