論文の概要: LiRaFusion: Deep Adaptive LiDAR-Radar Fusion for 3D Object Detection
- arxiv url: http://arxiv.org/abs/2402.11735v1
- Date: Sun, 18 Feb 2024 23:29:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 19:20:57.906524
- Title: LiRaFusion: Deep Adaptive LiDAR-Radar Fusion for 3D Object Detection
- Title(参考訳): LiRaFusion:3次元物体検出のための深層適応LiDAR-Radar核融合
- Authors: Jingyu Song, Lingjun Zhao, Katherine A. Skinner
- Abstract要約: 3次元物体検出のためのLiDAR-レーダー融合のためのLiRaFusionを提案する。
我々は,結合ボクセル特徴符号化のための早期融合モジュールと,特徴写像を適応的に融合させる中核融合モジュールを設計する。
既存の手法に比べてLiRaFusionが顕著な改善を達成できることを示すため,我々はnuScenesを広範囲に評価する。
- 参考スコア(独自算出の注目度): 7.505655376776177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose LiRaFusion to tackle LiDAR-radar fusion for 3D object detection to
fill the performance gap of existing LiDAR-radar detectors. To improve the
feature extraction capabilities from these two modalities, we design an early
fusion module for joint voxel feature encoding, and a middle fusion module to
adaptively fuse feature maps via a gated network. We perform extensive
evaluation on nuScenes to demonstrate that LiRaFusion leverages the
complementary information of LiDAR and radar effectively and achieves notable
improvement over existing methods.
- Abstract(参考訳): 既存のLiDARレーダ検出器の性能ギャップを埋めるために,LiRaFusionを用いて3次元物体検出を行う。
これら2つのモードから特徴抽出能力を向上させるために,ジョイントボクセル特徴符号化のための早期融合モジュールと,ゲートネットワークを介して特徴マップを適応的に融合する中間融合モジュールを設計した。
我々は、LiRaFusionがLiDARとレーダーの補完情報を効果的に活用し、既存の手法よりも顕著な改善を実現していることを示す。
関連論文リスト
- LiCROcc: Teach Radar for Accurate Semantic Occupancy Prediction using LiDAR and Camera [22.974481709303927]
3Dレーダーは、自動運転アプリケーションにおけるLiDARを徐々に置き換えている。
我々は,点雲と画像の融合フレームワークを実現するために,BEVに3段階の密接な融合手法を提案する。
提案手法はレーダー専用(R-LiCROcc)とレーダーカメラ(RC-LiCROcc)の両方での性能を向上させる。
論文 参考訳(メタデータ) (2024-07-23T05:53:05Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - Better Monocular 3D Detectors with LiDAR from the Past [64.6759926054061]
カメラベースの3D検出器は、画像の奥行きのあいまいさのため、LiDARベースの検出器に比べて性能が劣ることが多い。
本研究では,未ラベルの歴史的LiDARデータを活用することにより,単分子3D検出器の改良を図る。
複数の最先端モデルやデータセットに対して,9.66ミリ秒の追加レイテンシとストレージコストの低い,一貫性と大幅なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-04-08T01:38:43Z) - SupFusion: Supervised LiDAR-Camera Fusion for 3D Object Detection [22.683446326326898]
SupFusionはLiDAR-Camera融合のための補助的な機能レベルの監視を提供する。
ディープフュージョンモジュールは、従来のフュージョン法に比べて連続的に優れた性能を得る。
複数のLiDAR-Camera 3D検出器をベースとしたKITTIベンチマークでは,約2%の3D mAP改善が得られた。
論文 参考訳(メタデータ) (2023-09-13T16:52:23Z) - RCM-Fusion: Radar-Camera Multi-Level Fusion for 3D Object Detection [15.686167262542297]
本稿では,機能レベルとインスタンスレベルの両モードを融合するRadar-Camera Multi-level fusion (RCM-Fusion)を提案する。
特徴レベルの融合のために,カメラ特徴を正確なBEV表現に変換するRadar Guided BEVを提案する。
実例レベルでの融合では,ローカライズエラーを低減するRadar Grid Point Refinementモジュールを提案する。
論文 参考訳(メタデータ) (2023-07-17T07:22:25Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with
Transformers [49.689566246504356]
そこで本研究では,LiDAR-カメラ融合に対するソフトアソシエーション機構による堅牢な解であるTransFusionを提案する。
TransFusionは大規模データセット上で最先端のパフォーマンスを実現する。
提案手法を3次元トラッキングタスクに拡張し,nuScenesトラッキングのリーダーボードにおける第1位を達成する。
論文 参考訳(メタデータ) (2022-03-22T07:15:13Z) - Dense Voxel Fusion for 3D Object Detection [10.717415797194896]
ボクセル融合 (Voxel Fusion, DVF) は, 多スケール密度ボクセル特徴表現を生成する逐次融合法である。
地上の真理2Dバウンディングボックスラベルを直接トレーニングし、ノイズの多い検出器固有の2D予測を避けます。
提案したマルチモーダルトレーニング戦略は, 誤った2次元予測を用いたトレーニングに比べ, より一般化できることを示す。
論文 参考訳(メタデータ) (2022-03-02T04:51:31Z) - Volumetric Propagation Network: Stereo-LiDAR Fusion for Long-Range Depth
Estimation [81.08111209632501]
長距離深度推定のための幾何認識型ステレオLiDAR融合ネットワークを提案する。
ステレオ画像の対応を統一した3Dボリューム空間で導くためのキューとして、スパースで正確な点群を活用します。
我々のネットワークは,KITTIおよびVirtual-KITTIデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-03-24T03:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。