論文の概要: LiDAR MOT-DETR: A LiDAR-based Two-Stage Transformer for 3D Multiple Object Tracking
- arxiv url: http://arxiv.org/abs/2505.12753v1
- Date: Mon, 19 May 2025 06:25:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.440442
- Title: LiDAR MOT-DETR: A LiDAR-based Two-Stage Transformer for 3D Multiple Object Tracking
- Title(参考訳): LiDAR MOT-DETR:3次元多目的追跡のためのLiDARベースの2段階変換器
- Authors: Martha Teiko Teye, Ori Maoz, Matthias Rottmann,
- Abstract要約: LiDAR点雲からの多物体追跡は、データのスパースで不規則な性質のため、ユニークな課題を示す。
ライダーをベースとした2段式DETRインバータ,スムーズかつトラッカーを提案する。
このモデルは、オンラインモードとオフラインモードの両方で、nuScenesとKITTIのデータセットに基づいてトレーニングされている。
- 参考スコア(独自算出の注目度): 4.69726714177332
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-object tracking from LiDAR point clouds presents unique challenges due to the sparse and irregular nature of the data, compounded by the need for temporal coherence across frames. Traditional tracking systems often rely on hand-crafted features and motion models, which can struggle to maintain consistent object identities in crowded or fast-moving scenes. We present a lidar-based two-staged DETR inspired transformer; a smoother and tracker. The smoother stage refines lidar object detections, from any off-the-shelf detector, across a moving temporal window. The tracker stage uses a DETR-based attention block to maintain tracks across time by associating tracked objects with the refined detections using the point cloud as context. The model is trained on the datasets nuScenes and KITTI in both online and offline (forward peeking) modes demonstrating strong performance across metrics such as ID-switch and multiple object tracking accuracy (MOTA). The numerical results indicate that the online mode outperforms the lidar-only baseline and SOTA models on the nuScenes dataset, with an aMOTA of 0.722 and an aMOTP of 0.475, while the offline mode provides an additional 3 pp aMOTP
- Abstract(参考訳): LiDAR点雲からの多物体追跡は、フレーム間の時間的コヒーレンスの必要性により、データのスパースで不規則な性質のため、ユニークな課題を呈する。
伝統的なトラッキングシステムは、しばしば手作りの特徴とモーションモデルに依存しており、混雑したシーンや速いシーンで一貫したオブジェクトのアイデンティティを維持するのに苦労する可能性がある。
ライダーをベースとした2段式DETRインバータ,スムーズかつトラッカーを提案する。
よりスムーズなステージは、移動中の時間窓を越えて、市販の検出器からライダー物体の検出を洗練させる。
トラッカーステージはDETRベースのアテンションブロックを使用して、トラックされたオブジェクトと、ポイントクラウドをコンテキストとして洗練された検出とを関連付けることで、トラックを時間にわたって維持する。
このモデルは、オンラインモードとオフラインモードの両方でnuScenesとKITTIのデータセットに基づいてトレーニングされており、IDスウィッチや複数オブジェクト追跡精度(MOTA)といったメトリクス間で強力なパフォーマンスを示している。
その結果、オンラインモードは、nuScenesデータセット上のライダーのみのベースラインとSOTAモデルより優れており、aMOTAは0.722、aMOTPは0.475、オフラインモードは3ppのaMOTPを提供することがわかった。
関連論文リスト
- IMM-MOT: A Novel 3D Multi-object Tracking Framework with Interacting Multiple Model Filter [10.669576499007139]
3D Multi-Object Tracking (MOT) は周囲の物体の軌跡を提供する。
トラッキング・バイ・ディテククションフレームワークに基づく既存の3D MOTメソッドは、通常、オブジェクトを追跡するために単一のモーションモデルを使用する。
IMM-MOTにおける干渉多重モデルフィルタを導入し、個々の物体の複雑な動きパターンを正確にマッチングする。
論文 参考訳(メタデータ) (2025-02-13T01:55:32Z) - CrossTracker: Robust Multi-modal 3D Multi-Object Tracking via Cross Correction [27.18612358750601]
CrossTrackerは、オンラインマルチモーダル3DMOTのための新しい2段階パラダイムである。
われわれの実験は、CrossTrackerが18の競合相手よりも優れていることを実証している。
論文 参考訳(メタデータ) (2024-11-28T01:36:29Z) - STCMOT: Spatio-Temporal Cohesion Learning for UAV-Based Multiple Object Tracking [13.269416985959404]
無人航空機(UAV)ビデオにおける複数物体追跡(MOT)は、コンピュータビジョンにおける多様な用途において重要である。
時空間結合型多目的追跡フレームワーク(STCMOT)を提案する。
歴史的埋め込み機能を用いて,ReIDの表現と検出機能を逐次的にモデル化する。
我々のフレームワークはMOTAとIDF1メトリクスで新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2024-09-17T14:34:18Z) - 3D Single-object Tracking in Point Clouds with High Temporal Variation [79.5863632942935]
点雲の高時間変動は3次元単一物体追跡の鍵となる課題である(3D SOT)
既存のアプローチは、点雲の形状変化と、隣接するフレームを横切る物体の運動が滑らかであるという仮定に依存している。
HVTrackと呼ばれる高時間変動の点群における3次元SOTのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-04T14:57:28Z) - ByteTrackV2: 2D and 3D Multi-Object Tracking by Associating Every
Detection Box [81.45219802386444]
マルチオブジェクトトラッキング(MOT)は、ビデオフレーム間のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
低スコア検出ボックス内の真のオブジェクトをマイニングするための階層型データアソシエーション戦略を提案する。
3次元のシナリオでは、トラッカーが世界座標の物体速度を予測するのがずっと簡単である。
論文 参考訳(メタデータ) (2023-03-27T15:35:21Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Probabilistic 3D Multi-Modal, Multi-Object Tracking for Autonomous
Driving [22.693895321632507]
異なる訓練可能なモジュールからなる確率的、マルチモーダル、マルチオブジェクトトラッキングシステムを提案する。
本手法はNuScenes Trackingデータセットの現在の状態を上回っていることを示した。
論文 参考訳(メタデータ) (2020-12-26T15:00:54Z) - Tracking from Patterns: Learning Corresponding Patterns in Point Clouds
for 3D Object Tracking [34.40019455462043]
本稿では,時間点雲データから3次元オブジェクト対応を学習し,対応パターンから動き情報を推測する。
提案手法は,KITTIと大規模Nuscenesデータセットの双方において,既存の3次元追跡手法を超えている。
論文 参考訳(メタデータ) (2020-10-20T06:07:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。