論文の概要: Radar+RGB Attentive Fusion for Robust Object Detection in Autonomous
Vehicles
- arxiv url: http://arxiv.org/abs/2008.13642v1
- Date: Mon, 31 Aug 2020 14:27:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 06:53:56.061031
- Title: Radar+RGB Attentive Fusion for Robust Object Detection in Autonomous
Vehicles
- Title(参考訳): radar+rgbattentive fusionによる自律走行車両のロバスト物体検出
- Authors: Ritu Yadav, Axel Vierling, Karsten Berns
- Abstract要約: 提案アーキテクチャは,RGBカメラ画像とともにレーダ信号データを用いてロバスト検出ネットワークを構築することを目的としている。
BIRANetは、NuScenesデータセットの平均AP/ARを72.3/75.3%出力する。
RANetは69.6/71.9%の平均AP/ARを同じデータセットで提供する。
- 参考スコア(独自算出の注目度): 0.5801044612920815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents two variations of architecture referred to as RANet and
BIRANet. The proposed architecture aims to use radar signal data along with RGB
camera images to form a robust detection network that works efficiently, even
in variable lighting and weather conditions such as rain, dust, fog, and
others. First, radar information is fused in the feature extractor network.
Second, radar points are used to generate guided anchors. Third, a method is
proposed to improve region proposal network targets. BIRANet yields 72.3/75.3%
average AP/AR on the NuScenes dataset, which is better than the performance of
our base network Faster-RCNN with Feature pyramid network(FFPN). RANet gives
69.6/71.9% average AP/AR on the same dataset, which is reasonably acceptable
performance. Also, both BIRANet and RANet are evaluated to be robust towards
the noise.
- Abstract(参考訳): 本稿では,RANet と BIRANet の2種類のアーキテクチャについて述べる。
提案アーキテクチャは,RGBカメラ画像とともにレーダ信号データを用いて,雨や塵,霧などの気象条件下でも効率よく動作するロバストな検知ネットワークを構築することを目的としている。
まず、特徴抽出ネットワークにおいて、レーダ情報を融合する。
第2に、レーダーポイントは誘導アンカーを生成するために使用される。
第3に,地域提案型ネットワークターゲットを改善する手法を提案する。
biranet は nuscenes データセットで 72.3/75.3% の平均 ap/ar を得ることができ、これは我々のベースネットワークである fast-rcnn with feature pyramid network (ffpn) の性能よりも優れている。
RANetは69.6/71.9%の平均AP/ARを同じデータセットで提供する。
また、BIRANetとRANetの両方がノイズに対して堅牢であると評価されている。
関連論文リスト
- CaFNet: A Confidence-Driven Framework for Radar Camera Depth Estimation [6.9404362058736995]
本稿では,深度推定のための2段階・エンドツーエンドの信頼度対応フュージョンネット(CaFNet)を提案する。
第1段階は、あいまいな標高やノイズ測定など、レーダー固有の課題に対処する。
最終深度推定のために、レーダと画像の特徴を効果的に統合するための信頼性を考慮したゲート融合機構を革新する。
論文 参考訳(メタデータ) (2024-06-30T13:39:29Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - StreakNet-Arch: An Anti-scattering Network-based Architecture for Underwater Carrier LiDAR-Radar Imaging [48.30281861646519]
本稿では,水中キャリアLiDAR-Radar(UCLR)イメージングシステム用に設計された新しい信号処理アーキテクチャであるStreakNet-Archを紹介する。
StreakNet-Archは、信号処理をリアルタイムなエンドツーエンドのバイナリ分類タスクとして定式化する。
本稿では,ストリークチューブカメライメージを注目ネットワークに埋め込み,学習帯域通過フィルタとして効果的に機能する手法を提案する。
論文 参考訳(メタデータ) (2024-04-14T06:19:46Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Automotive RADAR sub-sampling via object detection networks: Leveraging
prior signal information [18.462990836437626]
自動運転技術への関心が高まり、自動車レーダーはますます注目を集めている。
本研究では,従来の環境条件の知識に基づいて,より詳細な/正確な再構築を必要とする地域を特定するための適応型レーダサブサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-21T05:32:28Z) - RODNet: A Real-Time Radar Object Detection Network Cross-Supervised by
Camera-Radar Fused Object 3D Localization [30.42848269877982]
本稿では,カメラレーダ融合アルゴリズムによって相互に監視される深層レーダ物体検出ネットワーク RODNet を提案する。
提案したRDDNetは、レーダフィールド・オブ・ビュー(FoV)におけるオブジェクトの可能性を予測するための入力として、RF画像のシーケンスを用いる。
集中的な実験により,提案手法は平均精度86%,オブジェクト検出性能88%を達成した。
論文 参考訳(メタデータ) (2021-02-09T22:01:55Z) - Radar-Camera Sensor Fusion for Joint Object Detection and Distance
Estimation in Autonomous Vehicles [8.797434238081372]
本稿では,自律走行シナリオにおける物体検出と距離推定のための新しいレーダーカメラセンサ融合フレームワークを提案する。
提案アーキテクチャでは,レーダーポイント雲とRGB画像の融合に中間融合方式を用いる。
難易度の高いnuScenesデータセットの実験では、我々の手法は2次元物体検出タスクにおいて既存のレーダー・カメラ融合法よりも優れていた。
論文 参考訳(メタデータ) (2020-09-17T17:23:40Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - RODNet: Radar Object Detection Using Cross-Modal Supervision [34.33920572597379]
レーダーは通常、厳しい運転シナリオではカメラよりも頑丈である。
カメラが撮影したRGB画像とは異なり、レーダー信号からのセマンティック情報は明らかに抽出が困難である。
レーダ周波数データからオブジェクトを純粋に検出するディープレーダオブジェクト検出ネットワーク(RODNet)を提案する。
論文 参考訳(メタデータ) (2020-03-03T22:33:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。