論文の概要: Cross-Dataset Experimental Study of Radar-Camera Fusion in Bird's-Eye
View
- arxiv url: http://arxiv.org/abs/2309.15465v1
- Date: Wed, 27 Sep 2023 08:02:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 14:54:51.590450
- Title: Cross-Dataset Experimental Study of Radar-Camera Fusion in Bird's-Eye
View
- Title(参考訳): 鳥から見たレーダー・カメラ融合のクロスデータセット実験
- Authors: Lukas St\"acker, Philipp Heidenreich, Jason Rambach, Didier Stricker
- Abstract要約: レーダーとカメラの融合システムは、非常に堅牢で信頼性の高い認識システムを提供する可能性がある。
カメラによる物体検出の最近の進歩は、鳥の視線特徴地図を用いた新しいレーダーカメラ融合の可能性をもたらす。
本稿では,新しいフレキシブルな融合ネットワークを提案し,その性能を2つのデータセットで評価する。
- 参考スコア(独自算出の注目度): 12.723455775659414
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: By exploiting complementary sensor information, radar and camera fusion
systems have the potential to provide a highly robust and reliable perception
system for advanced driver assistance systems and automated driving functions.
Recent advances in camera-based object detection offer new radar-camera fusion
possibilities with bird's eye view feature maps. In this work, we propose a
novel and flexible fusion network and evaluate its performance on two datasets:
nuScenes and View-of-Delft. Our experiments reveal that while the camera branch
needs large and diverse training data, the radar branch benefits more from a
high-performance radar. Using transfer learning, we improve the camera's
performance on the smaller dataset. Our results further demonstrate that the
radar-camera fusion approach significantly outperforms the camera-only and
radar-only baselines.
- Abstract(参考訳): 相補的なセンサー情報を活用することで、レーダーとカメラの融合システムは、高度な運転支援システムと自動運転機能のための非常に堅牢で信頼性の高い認識システムを提供する可能性がある。
カメラによる物体検出の最近の進歩は、鳥の視線特徴地図を用いた新しいレーダーカメラ融合の可能性をもたらす。
本研究では,新しいフレキシブルな融合ネットワークを提案し,その性能を2つのデータセット,nuScenesとView-of-Delftで評価する。
我々の実験によると、カメラブランチは大規模で多様な訓練データを必要とするが、レーダーブランチは高性能レーダーの恩恵を受ける。
転送学習を用いて、より小さなデータセット上でのカメラの性能を改善する。
さらに,レーダーとカメラの融合アプローチが,カメラのみとレーダーのみのベースラインを大きく上回ることを示した。
関連論文リスト
- A Resource Efficient Fusion Network for Object Detection in Bird's-Eye View using Camera and Raw Radar Data [7.2508100569856975]
レーダデータの生のレンジ・ドップラースペクトルを用いてカメラ画像を処理する。
カメラエンコーダデコーダアーキテクチャを用いて,対応する特徴を抽出する。
得られた特徴写像はレンジ・アジマス特徴と融合し、RDスペクトルから復元して物体検出を行う。
論文 参考訳(メタデータ) (2024-11-20T13:26:13Z) - Boosting Online 3D Multi-Object Tracking through Camera-Radar Cross Check [24.764602040003403]
CRAFTBoosterは、追跡段階におけるレーダーカメラの融合を強化する先駆的な取り組みであり、3D MOT精度の向上に貢献している。
IDF1追跡性能向上の5-6%を示すK-Radaarデータセットの優れた実験結果は、自律走行における効果的なセンサ融合の可能性を検証する。
論文 参考訳(メタデータ) (2024-07-18T23:32:27Z) - Exploring Radar Data Representations in Autonomous Driving: A Comprehensive Review [9.68427762815025]
レビューでは、自律運転システムで使用されるさまざまなレーダーデータ表現の探索に焦点を当てている。
レーダセンサの機能と限界について紹介する。
各レーダ表現について、関連するデータセット、方法、利点、限界について検討する。
論文 参考訳(メタデータ) (2023-12-08T06:31:19Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - RC-BEVFusion: A Plug-In Module for Radar-Camera Bird's Eye View Feature
Fusion [11.646949644683755]
本稿では,BEV平面上のモジュラーレーダカメラ融合ネットワークであるRC-BEVFusionを紹介する。
nuScenes検出スコアは最大28%向上した。
論文 参考訳(メタデータ) (2023-05-25T09:26:04Z) - MVFusion: Multi-View 3D Object Detection with Semantic-aligned Radar and
Camera Fusion [6.639648061168067]
マルチビューレーダーカメラで融合した3Dオブジェクト検出は、より遠くの検知範囲と自律運転に有用な機能を提供する。
現在のレーダーとカメラの融合方式は、レーダー情報をカメラデータで融合するための種類の設計を提供する。
セマンティック・アライメント・レーダ機能を実現するための新しいマルチビューレーダカメラフュージョン法であるMVFusionを提案する。
論文 参考訳(メタデータ) (2023-02-21T08:25:50Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。