論文の概要: 3D Multi-Object Tracking Employing MS-GLMB Filter for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2410.14977v1
- Date: Sat, 19 Oct 2024 04:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:18:54.186759
- Title: 3D Multi-Object Tracking Employing MS-GLMB Filter for Autonomous Driving
- Title(参考訳): MS-GLMBフィルタを用いた自律走行3次元多物体追跡
- Authors: Linh Van Ma, Muhammad Ishfaq Hussain, Kin-Choong Yow, Moongu Jeon,
- Abstract要約: 我々は3次元多目的追跡のためのMS-GLMBフレームワークにLiDARなどの追加センサーを統合する改良されたアプローチを導入する。
実験の結果,既存のMS-GLMB法と比較して追跡性能が大幅に向上した。
- 参考スコア(独自算出の注目度): 9.145911310294426
- License:
- Abstract: The MS-GLMB filter offers a robust framework for tracking multiple objects through the use of multi-sensor data. Building on this, the MV-GLMB and MV-GLMB-AB filters enhance the MS-GLMB capabilities by employing cameras for 3D multi-sensor multi-object tracking, effectively addressing occlusions. However, both filters depend on overlapping fields of view from the cameras to combine complementary information. In this paper, we introduce an improved approach that integrates an additional sensor, such as LiDAR, into the MS-GLMB framework for 3D multi-object tracking. Specifically, we present a new LiDAR measurement model, along with a multi-camera and LiDAR multi-object measurement model. Our experimental results demonstrate a significant improvement in tracking performance compared to existing MS-GLMB-based methods. Importantly, our method eliminates the need for overlapping fields of view, broadening the applicability of the MS-GLMB filter. Our source code for nuScenes dataset is available at https://github.com/linh-gist/ms-glmb-nuScenes.
- Abstract(参考訳): MS-GLMBフィルタはマルチセンサーデータを用いて複数のオブジェクトを追跡する堅牢なフレームワークを提供する。
これに基づいて、MV-GLMBとMV-GLMB-ABフィルタは、3Dマルチセンサー・マルチオブジェクトトラッキングにカメラを用いることでMS-GLMB機能を強化し、効果的にオクルージョンに対処する。
しかし、両フィルタは相補的な情報を組み合わせるために、カメラからの重なり合う視野に依存している。
本稿では,LiDARなどのセンサをMS-GLMBフレームワークに統合して3次元マルチオブジェクトトラッキングを実現する手法を提案する。
具体的には、新しいLiDAR計測モデルと、マルチカメラおよびLiDARマルチオブジェクト計測モデルを提案する。
実験の結果,既存のMS-GLMB法と比較して追跡性能が大幅に向上した。
重要なことに,本手法は,MS-GLMBフィルタの適用性を拡大し,重なり合う視野の必要性を排除している。
nuScenesデータセットのソースコードはhttps://github.com/linh-gist/ms-glmb-nuScenesで公開されています。
関連論文リスト
- Boosting 3D Object Detection with Semantic-Aware Multi-Branch Framework [44.44329455757931]
自律走行では、LiDARセンサーは3Dポイントの雲の取得に不可欠であり、信頼できる幾何学的情報を提供する。
そこで本研究では,Semantic-aware Multi-branch Sampling (SMS)モジュールを用いたマルチブランチ2次元オブジェクト検出フレームワークを提案する。
KITTI 3Dオブジェクト検出ベンチマークによる実験結果から,本手法は種々のバックボーンに対して優れた検出性能向上を実現することが示された。
論文 参考訳(メタデータ) (2024-07-08T09:25:45Z) - Track Initialization and Re-Identification for~3D Multi-View Multi-Object Tracking [12.389483990547223]
モノクロカメラからの2次元検出のみを用いた3次元多対象追跡(MOT)ソリューションを提案する。
我々は,複数のカメラから抽出した2次元検出と特徴を利用して,多目的フィルタリング密度をよりよく近似する。
論文 参考訳(メタデータ) (2024-05-28T21:36:16Z) - PoIFusion: Multi-Modal 3D Object Detection via Fusion at Points of Interest [65.48057241587398]
PoIFusionは、関心点(PoIs)におけるRGBイメージとLiDARポイントクラウドに関する情報を融合するフレームワークである。
提案手法は,各モダリティの視点を維持し,計算にやさしいプロジェクションと計算によってマルチモーダル特徴を得る。
我々はnuScenesとArgoverse2データセットについて広範囲に実験を行い、我々のアプローチを評価した。
論文 参考訳(メタデータ) (2024-03-14T09:28:12Z) - VirtualPainting: Addressing Sparsity with Virtual Points and
Distance-Aware Data Augmentation for 3D Object Detection [3.5259183508202976]
本稿では,カメラ画像を用いた仮想LiDAR点の生成を含む革新的なアプローチを提案する。
また、画像ベースセグメンテーションネットワークから得られる意味ラベルを用いて、これらの仮想点を強化する。
このアプローチは、様々な3Dフレームワークと2Dセマンティックセグメンテーションメソッドにシームレスに統合できる汎用的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-26T18:03:05Z) - SCA-PVNet: Self-and-Cross Attention Based Aggregation of Point Cloud and
Multi-View for 3D Object Retrieval [8.74845857766369]
大規模データセットを用いた多モード3Dオブジェクト検索はめったに行われない。
本稿では,3次元オブジェクト検索のための点群と多視点画像の自己・横断的アグリゲーションを提案する。
論文 参考訳(メタデータ) (2023-07-20T05:46:32Z) - SimDistill: Simulated Multi-modal Distillation for BEV 3D Object
Detection [56.24700754048067]
多視点カメラによる3Dオブジェクト検出は低コストで普及しているが、カメラデータのみから正確に3D形状を推定することは依然として困難である。
モデルアーキテクチャと蒸留戦略を慎重に構築し,シミュレートされたマルチモーダル蒸留(SimDistill)法を提案する。
我々のSimDistillは、コスト効率のよいカメラのみの配置を維持しながら、3Dオブジェクト検出のためのより良い特徴表現を学習することができる。
論文 参考訳(メタデータ) (2023-03-29T16:08:59Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - MeMOT: Multi-Object Tracking with Memory [97.48960039220823]
私たちのモデルはMeMOTと呼ばれ、トランスフォーマーベースの3つの主要モジュールで構成されています。
MeMOTは広く採用されているMOTデータセット上で非常に競争力のあるパフォーマンスを観測する。
論文 参考訳(メタデータ) (2022-03-31T02:33:20Z) - Know Your Surroundings: Panoramic Multi-Object Tracking by Multimodality
Collaboration [56.01625477187448]
MMPAT(MultiModality PAnoramic Multi-object Tracking framework)を提案する。
2次元パノラマ画像と3次元点雲を入力とし、マルチモーダルデータを用いて目標軌道を推定する。
提案手法は,検出タスクと追跡タスクの両方においてMMPATが最高性能を達成するJRDBデータセット上で評価する。
論文 参考訳(メタデータ) (2021-05-31T03:16:38Z) - siaNMS: Non-Maximum Suppression with Siamese Networks for Multi-Camera
3D Object Detection [65.03384167873564]
サイムズネットワークは、よく知られた3Dオブジェクト検出器アプローチのパイプラインに統合される。
アソシエーションはオブジェクトの3Dボックスレグレッションを強化するために利用される。
nuScenesデータセットの実験的評価は,提案手法が従来のNMS手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2020-02-19T15:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。