論文の概要: Bayesian Approximation-Based Trajectory Prediction and Tracking with 4D Radar
- arxiv url: http://arxiv.org/abs/2502.01357v1
- Date: Mon, 03 Feb 2025 13:49:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:59:20.203715
- Title: Bayesian Approximation-Based Trajectory Prediction and Tracking with 4D Radar
- Title(参考訳): ベイズ近似に基づく4次元レーダによる軌道予測と追跡
- Authors: Dong-In Kim, Dong-Hee Paek, Seung-Hyun Song, Seung-Hyun Kong,
- Abstract要約: 3Dマルチオブジェクトトラッキング(MOT)は自動運転車には不可欠だが、LiDARとカメラベースの手法は悪天候下では劣化する。
本研究では,4次元レーダベースMOTフレームワークであるBayes-4DRTrackを提案する。
- 参考スコア(独自算出の注目度): 13.438311878715536
- License:
- Abstract: Accurate 3D multi-object tracking (MOT) is vital for autonomous vehicles, yet LiDAR and camera-based methods degrade in adverse weather. Meanwhile, Radar-based solutions remain robust but often suffer from limited vertical resolution and simplistic motion models. Existing Kalman filter-based approaches also rely on fixed noise covariance, hampering adaptability when objects make sudden maneuvers. We propose Bayes-4DRTrack, a 4D Radar-based MOT framework that adopts a transformer-based motion prediction network to capture nonlinear motion dynamics and employs Bayesian approximation in both detection and prediction steps. Moreover, our two-stage data association leverages Doppler measurements to better distinguish closely spaced targets. Evaluated on the K-Radar dataset (including adverse weather scenarios), Bayes-4DRTrack demonstrates a 5.7% gain in Average Multi-Object Tracking Accuracy (AMOTA) over methods with traditional motion models and fixed noise covariance. These results showcase enhanced robustness and accuracy in demanding, real-world conditions.
- Abstract(参考訳): 正確な3D多目的追跡(MOT)は自動運転車には不可欠であるが、LiDARとカメラベースの手法は悪天候下では劣化する。
一方、レーダーベースの解は引き続き頑健であるが、しばしば垂直分解能と単純化された運動モデルに悩まされる。
既存のカルマンフィルタに基づくアプローチは、固定ノイズ共分散にも依存しており、オブジェクトが突然の操作を行うときの適応性を妨げている。
本研究では,4次元レーダをベースとしたMoTフレームワークBayes-4DRTrackを提案する。
さらに、我々の2段階のデータアソシエーションはドップラー測定を利用して、密接な空間的目標を識別する。
K-Radarデータセット(悪天候シナリオを含む)に基づいて評価されたBayes-4DRTrackは、従来のモーションモデルと固定ノイズ共分散を用いた手法よりも平均的マルチオブジェクト追跡精度(AMOTA)が5.7%向上していることを示した。
これらの結果から,要求された実環境における強靭性と精度が向上した。
関連論文リスト
- RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - A Novel Multi-Teacher Knowledge Distillation for Real-Time Object Detection using 4D Radar [5.038148262901536]
3Dオブジェクト検出は、安全で自律的なナビゲーションに不可欠であり、多様な気象条件にまたがって信頼性の高い性能を必要とする。
従来のレーダーは標高データがないため制限がある。
4Dレーダーは、距離、方位、ドップラー速度とともに高度を測定することでこれを克服し、自動運転車にとって貴重なものとなっている。
論文 参考訳(メタデータ) (2025-02-10T02:48:56Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - MVFAN: Multi-View Feature Assisted Network for 4D Radar Object Detection [15.925365473140479]
4Dレーダーは、悪天候下での弾力性と費用対効果が認められている。
LiDARやカメラとは異なり、レーダーは厳しい気象条件で損傷を受けないままである。
本稿では,自律走行車のためのレーダーによる3次元物体検出手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T06:10:07Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - RaTrack: Moving Object Detection and Tracking with 4D Radar Point Cloud [10.593320435411714]
レーダベースのトラッキングに適した革新的なソリューションであるRaTrackを紹介します。
本手法は,動き推定モジュールによって強化された動き分割とクラスタリングに焦点を当てる。
RaTrackは移動物体の追跡精度が優れており、最先端の技術をはるかに上回っている。
論文 参考訳(メタデータ) (2023-09-18T13:02:29Z) - 4DRVO-Net: Deep 4D Radar-Visual Odometry Using Multi-Modal and
Multi-Scale Adaptive Fusion [2.911052912709637]
4次元(4D)レーダー-視覚計測(4DRVO)は4次元レーダーとカメラの補完情報を統合している。
4DRVOは4Dレーダーポイント雲の空隙による追跡誤差が顕著である可能性がある。
本稿では,4次元レーダ・ビジュアル・オドメトリーの手法である4DRVO-Netを提案する。
論文 参考訳(メタデータ) (2023-08-12T14:00:09Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。