論文の概要: 3D Multi-Object Tracking Employing MS-GLMB Filter for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2410.14977v1
- Date: Sat, 19 Oct 2024 04:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:18:54.186759
- Title: 3D Multi-Object Tracking Employing MS-GLMB Filter for Autonomous Driving
- Title(参考訳): MS-GLMBフィルタを用いた自律走行3次元多物体追跡
- Authors: Linh Van Ma, Muhammad Ishfaq Hussain, Kin-Choong Yow, Moongu Jeon,
- Abstract要約: 我々は3次元多目的追跡のためのMS-GLMBフレームワークにLiDARなどの追加センサーを統合する改良されたアプローチを導入する。
実験の結果,既存のMS-GLMB法と比較して追跡性能が大幅に向上した。
- 参考スコア(独自算出の注目度): 9.145911310294426
- License:
- Abstract: The MS-GLMB filter offers a robust framework for tracking multiple objects through the use of multi-sensor data. Building on this, the MV-GLMB and MV-GLMB-AB filters enhance the MS-GLMB capabilities by employing cameras for 3D multi-sensor multi-object tracking, effectively addressing occlusions. However, both filters depend on overlapping fields of view from the cameras to combine complementary information. In this paper, we introduce an improved approach that integrates an additional sensor, such as LiDAR, into the MS-GLMB framework for 3D multi-object tracking. Specifically, we present a new LiDAR measurement model, along with a multi-camera and LiDAR multi-object measurement model. Our experimental results demonstrate a significant improvement in tracking performance compared to existing MS-GLMB-based methods. Importantly, our method eliminates the need for overlapping fields of view, broadening the applicability of the MS-GLMB filter. Our source code for nuScenes dataset is available at https://github.com/linh-gist/ms-glmb-nuScenes.
- Abstract(参考訳): MS-GLMBフィルタはマルチセンサーデータを用いて複数のオブジェクトを追跡する堅牢なフレームワークを提供する。
これに基づいて、MV-GLMBとMV-GLMB-ABフィルタは、3Dマルチセンサー・マルチオブジェクトトラッキングにカメラを用いることでMS-GLMB機能を強化し、効果的にオクルージョンに対処する。
しかし、両フィルタは相補的な情報を組み合わせるために、カメラからの重なり合う視野に依存している。
本稿では,LiDARなどのセンサをMS-GLMBフレームワークに統合して3次元マルチオブジェクトトラッキングを実現する手法を提案する。
具体的には、新しいLiDAR計測モデルと、マルチカメラおよびLiDARマルチオブジェクト計測モデルを提案する。
実験の結果,既存のMS-GLMB法と比較して追跡性能が大幅に向上した。
重要なことに,本手法は,MS-GLMBフィルタの適用性を拡大し,重なり合う視野の必要性を排除している。
nuScenesデータセットのソースコードはhttps://github.com/linh-gist/ms-glmb-nuScenesで公開されています。
関連論文リスト
- Progressive Multi-Modal Fusion for Robust 3D Object Detection [12.048303829428452]
既存の方法は、バードアイビュー(BEV)とパースペクティブビュー(PV)の両方のモードから特徴を投影することで、単一ビューでセンサフュージョンを実行する。
本稿では,中間クエリレベルとオブジェクトクエリレベルの両方で,BEVとPVの両方の機能を組み合わせたプログレッシブフュージョンフレームワークProFusion3Dを提案する。
我々のアーキテクチャは、局所的およびグローバルな特徴を融合させ、3次元オブジェクト検出の堅牢性を高める。
論文 参考訳(メタデータ) (2024-10-09T22:57:47Z) - Boosting 3D Object Detection with Semantic-Aware Multi-Branch Framework [44.44329455757931]
自律走行では、LiDARセンサーは3Dポイントの雲の取得に不可欠であり、信頼できる幾何学的情報を提供する。
そこで本研究では,Semantic-aware Multi-branch Sampling (SMS)モジュールを用いたマルチブランチ2次元オブジェクト検出フレームワークを提案する。
KITTI 3Dオブジェクト検出ベンチマークによる実験結果から,本手法は種々のバックボーンに対して優れた検出性能向上を実現することが示された。
論文 参考訳(メタデータ) (2024-07-08T09:25:45Z) - Track Initialization and Re-Identification for~3D Multi-View Multi-Object Tracking [12.389483990547223]
モノクロカメラからの2次元検出のみを用いた3次元多対象追跡(MOT)ソリューションを提案する。
我々は,複数のカメラから抽出した2次元検出と特徴を利用して,多目的フィルタリング密度をよりよく近似する。
論文 参考訳(メタデータ) (2024-05-28T21:36:16Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - Towards Unified 3D Object Detection via Algorithm and Data Unification [70.27631528933482]
我々は、最初の統一型マルチモーダル3Dオブジェクト検出ベンチマークMM-Omni3Dを構築し、上記のモノクロ検出器をマルチモーダルバージョンに拡張する。
設計した単分子・多モード検出器をそれぞれUniMODEとMM-UniMODEと命名した。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - SCA-PVNet: Self-and-Cross Attention Based Aggregation of Point Cloud and
Multi-View for 3D Object Retrieval [8.74845857766369]
大規模データセットを用いた多モード3Dオブジェクト検索はめったに行われない。
本稿では,3次元オブジェクト検索のための点群と多視点画像の自己・横断的アグリゲーションを提案する。
論文 参考訳(メタデータ) (2023-07-20T05:46:32Z) - SimDistill: Simulated Multi-modal Distillation for BEV 3D Object
Detection [56.24700754048067]
多視点カメラによる3Dオブジェクト検出は低コストで普及しているが、カメラデータのみから正確に3D形状を推定することは依然として困難である。
モデルアーキテクチャと蒸留戦略を慎重に構築し,シミュレートされたマルチモーダル蒸留(SimDistill)法を提案する。
我々のSimDistillは、コスト効率のよいカメラのみの配置を維持しながら、3Dオブジェクト検出のためのより良い特徴表現を学習することができる。
論文 参考訳(メタデータ) (2023-03-29T16:08:59Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - MeMOT: Multi-Object Tracking with Memory [97.48960039220823]
私たちのモデルはMeMOTと呼ばれ、トランスフォーマーベースの3つの主要モジュールで構成されています。
MeMOTは広く採用されているMOTデータセット上で非常に競争力のあるパフォーマンスを観測する。
論文 参考訳(メタデータ) (2022-03-31T02:33:20Z) - Know Your Surroundings: Panoramic Multi-Object Tracking by Multimodality
Collaboration [56.01625477187448]
MMPAT(MultiModality PAnoramic Multi-object Tracking framework)を提案する。
2次元パノラマ画像と3次元点雲を入力とし、マルチモーダルデータを用いて目標軌道を推定する。
提案手法は,検出タスクと追跡タスクの両方においてMMPATが最高性能を達成するJRDBデータセット上で評価する。
論文 参考訳(メタデータ) (2021-05-31T03:16:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。