論文の概要: LXLv2: Enhanced LiDAR Excluded Lean 3D Object Detection with Fusion of 4D Radar and Camera
- arxiv url: http://arxiv.org/abs/2502.14503v1
- Date: Thu, 20 Feb 2025 12:31:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:27:19.759896
- Title: LXLv2: Enhanced LiDAR Excluded Lean 3D Object Detection with Fusion of 4D Radar and Camera
- Title(参考訳): LXLv2:4Dレーダとカメラの融合によるLiDAR除去型リーン3Dオブジェクト検出
- Authors: Weiyi Xiong, Zean Zou, Qiuchi Zhao, Fengchun He, Bing Zhu,
- Abstract要約: 本稿では,LXLv2を提案する。
本研究では,レーダポイントによる1対多の深度監視戦略を考案し,オブジェクトレベルの深度整合性に対する監視領域の調整を行う。
View-of-DelftとTJ4DRadSetデータセットの実験結果から、提案したLXLv2は検出精度、推論速度、ロバスト性においてLXLより優れていることが示された。
- 参考スコア(独自算出の注目度): 1.8242856904644391
- License:
- Abstract: As the previous state-of-the-art 4D radar-camera fusion-based 3D object detection method, LXL utilizes the predicted image depth distribution maps and radar 3D occupancy grids to assist the sampling-based image view transformation. However, the depth prediction lacks accuracy and consistency, and the concatenation-based fusion in LXL impedes the model robustness. In this work, we propose LXLv2, where modifications are made to overcome the limitations and improve the performance. Specifically, considering the position error in radar measurements, we devise a one-to-many depth supervision strategy via radar points, where the radar cross section (RCS) value is further exploited to adjust the supervision area for object-level depth consistency. Additionally, a channel and spatial attention-based fusion module named CSAFusion is introduced to improve feature adaptiveness. Experimental results on the View-of-Delft and TJ4DRadSet datasets show that the proposed LXLv2 can outperform LXL in detection accuracy, inference speed and robustness, demonstrating the effectiveness of the model.
- Abstract(参考訳): 従来の最先端の4Dレーダカメラフュージョンベースの3Dオブジェクト検出手法として、LXLは、予測画像深度分布マップとレーダー3D占有グリッドを用いて、サンプリングベースの画像ビュー変換を支援する。
しかし、深度予測は精度と一貫性に欠けており、LXLの連結に基づく融合はモデルの堅牢性を妨げている。
本稿では,LXLv2を提案する。
具体的には、レーダ測定における位置誤差を考慮し、レーダクロスセクション(RCS)値をさらに活用して、オブジェクトレベルの深度一貫性の監視領域を調整するために、レーダポイントを介して一対多の深度監視戦略を考案する。
さらに、CSAFusionと呼ばれるチャネルおよび空間的注意に基づく融合モジュールを導入し、特徴適応性を向上させる。
View-of-DelftとTJ4DRadSetデータセットの実験結果から,提案したLXLv2は検出精度,推論速度,ロバスト性においてLXLより優れ,モデルの有効性が示された。
関連論文リスト
- V2X-R: Cooperative LiDAR-4D Radar Fusion for 3D Object Detection with Denoising Diffusion [43.55805087515543]
我々は、LiDAR、カメラ、および4Dレーダを取り入れた初のシミュレーションV2XデータセットであるV2X-Rを提案する。
V2X-Rには12,079のシナリオがあり、LiDARと4Dレーダーポイント雲の37,727フレーム、150,908の画像、170,859の注釈付き3D車両バウンディングボックスがある。
本稿では,3次元物体検出のための新しいコラボレーティブLiDAR-4Dレーダ融合パイプラインを提案し,様々な融合戦略を用いて実装する。
論文 参考訳(メタデータ) (2024-11-13T07:41:47Z) - UniBEVFusion: Unified Radar-Vision BEVFusion for 3D Object Detection [2.123197540438989]
多くのレーダービジョン融合モデルではレーダーを希薄なLiDARとして扱い、レーダー固有の情報を過小評価している。
本稿では,レーダー固有データを深度予測プロセスに統合したRDLモジュールを提案する。
また、異なるモードでBEV機能を抽出するUnified Feature Fusion (UFF)アプローチも導入する。
論文 参考訳(メタデータ) (2024-09-23T06:57:27Z) - An Empirical Analysis of Range for 3D Object Detection [70.54345282696138]
本稿では,長距離検出データセットArgoverse 2.0を用いた遠距離3次元検出の実験的検討を行った。
近接場LiDARの測定は、小さなボクセルによって密度が高く最適に符号化され、遠距離場の測定は疎く、大きなボクセルで符号化されている。
本研究では,33%の効率向上と3.2%のCDSの精度向上を図った。
論文 参考訳(メタデータ) (2023-08-08T05:29:26Z) - LXL: LiDAR Excluded Lean 3D Object Detection with 4D Imaging Radar and
Camera Fusion [14.520176332262725]
本稿では,カメラ上の「サンプリング」ビュー変換戦略と4次元イメージングレーダ融合による3次元物体検出について検討する。
画像深度とレーダ情報を導入して「サンプリング」戦略を強化することにより、より正確なビュー変換を行うことができることを示す。
VoD と TJ4DRadSet データセットの実験により,提案手法はベルやホイッスルを使わずに,最先端の3Dオブジェクト検出手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-03T03:09:44Z) - CrossFusion: Interleaving Cross-modal Complementation for
Noise-resistant 3D Object Detection [7.500487420385808]
本稿では, カメラとLiDARの機能を完全に活用し, クロスモーダル補間戦略を設計した, より堅牢で耐雑音性のあるスキームを提案する。
提案手法は, 設定条件下での最先端の手法より優れるだけでなく, 特定の故障シナリオに対して再学習することなく, モデルの耐雑音性を実証する。
論文 参考訳(メタデータ) (2023-04-19T14:35:16Z) - OPA-3D: Occlusion-Aware Pixel-Wise Aggregation for Monocular 3D Object
Detection [51.153003057515754]
OPA-3Dは、Occlusion-Aware Pixel-Wise Aggregationネットワークである。
密集した風景深度と、奥行きのある箱残量と物の境界箱を共同で推定する。
メインカーのカテゴリーでは最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-11-02T14:19:13Z) - Bridging the View Disparity of Radar and Camera Features for Multi-modal
Fusion 3D Object Detection [6.959556180268547]
本稿では3次元物体検出にミリ波レーダとカメラセンサ融合を用いる方法について述べる。
より優れた特徴表現のための鳥眼ビュー(BEV)における特徴レベル融合を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-25T13:21:37Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with
Transformers [49.689566246504356]
そこで本研究では,LiDAR-カメラ融合に対するソフトアソシエーション機構による堅牢な解であるTransFusionを提案する。
TransFusionは大規模データセット上で最先端のパフォーマンスを実現する。
提案手法を3次元トラッキングタスクに拡張し,nuScenesトラッキングのリーダーボードにおける第1位を達成する。
論文 参考訳(メタデータ) (2022-03-22T07:15:13Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。