論文の概要: Depth Estimation from Monocular Images and Sparse Radar Data
- arxiv url: http://arxiv.org/abs/2010.00058v1
- Date: Wed, 30 Sep 2020 19:01:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 00:02:48.522917
- Title: Depth Estimation from Monocular Images and Sparse Radar Data
- Title(参考訳): 単眼画像とスパースレーダデータからの深さ推定
- Authors: Juan-Ting Lin, Dengxin Dai, and Luc Van Gool
- Abstract要約: 本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
- 参考スコア(独自算出の注目度): 93.70524512061318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore the possibility of achieving a more accurate depth
estimation by fusing monocular images and Radar points using a deep neural
network. We give a comprehensive study of the fusion between RGB images and
Radar measurements from different aspects and proposed a working solution based
on the observations. We find that the noise existing in Radar measurements is
one of the main key reasons that prevents one from applying the existing fusion
methods developed for LiDAR data and images to the new fusion problem between
Radar data and images. The experiments are conducted on the nuScenes dataset,
which is one of the first datasets which features Camera, Radar, and LiDAR
recordings in diverse scenes and weather conditions. Extensive experiments
demonstrate that our method outperforms existing fusion methods. We also
provide detailed ablation studies to show the effectiveness of each component
in our method.
- Abstract(参考訳): 本稿では,深部ニューラルネットワークを用いた単眼画像とレーダー点の融合により,より正確な深度推定を実現する可能性を検討する。
本稿では,RGB画像とレーダ計測の融合について,様々な側面から総合的に検討し,その観測に基づく作業解を提案する。
我々は、レーダデータと画像の新たな融合問題に対して、LiDARデータと画像のために開発された既存の融合手法を適用することを阻止する主要な理由の1つとして、レーダ測定に存在するノイズが知られている。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
本手法が既存の核融合法より優れていることを示す。
また,本手法における各成分の有効性を示すための詳細なアブレーション研究も行った。
関連論文リスト
- A Generative Adversarial Network-based Method for LiDAR-Assisted Radar Image Enhancement [0.8528401618469594]
本稿では, レーダ画像強調のためのGAN(Generative Adversarial Network)に基づく手法を提案する。
提案手法は,高分解能2次元投影光検出・測光(LiDAR)点雲を地中真理画像として利用する。
提案手法の有効性は,定性的および定量的な結果によって実証される。
論文 参考訳(メタデータ) (2024-08-30T18:22:39Z) - Depth Estimation fusing Image and Radar Measurements with Uncertain Directions [14.206589791912458]
従来のレーダ画像融合作業では、画像特徴は畳み込み層を通してレーダーによって測定された不確実なスパース深さとマージされる。
本手法は,画像のみを用いて特徴を計算し,レーダ深度を画素単位で調整することでこの問題を回避する。
提案手法は, レーダの正確な方向のみを学習することにより, トレーニングデータを改善するとともに, 従来手法では生レーダ測定を訓練していた。
論文 参考訳(メタデータ) (2024-03-23T10:16:36Z) - RadarCam-Depth: Radar-Camera Fusion for Depth Estimation with Learned Metric Scale [21.09258172290667]
本稿では, 単視点画像とスパース, ノイズの多いレーダー点雲の融合に基づく, 距離密度推定のための新しい手法を提案する。
提案手法は,難解なnuScenesデータセットと自己コンパイルしたZJU-4DRadarCamデータセットにおいて,平均絶対誤差(MAE)を25.6%,40.2%削減することにより,最先端のRadar-Camera深度推定法を著しく上回っている。
論文 参考訳(メタデータ) (2024-01-09T02:40:03Z) - Diffusion Models for Interferometric Satellite Aperture Radar [73.01013149014865]
確率拡散モデル (Probabilistic Diffusion Models, PDMs) は、最近、非常に有望な生成モデルのクラスとして登場した。
ここでは、PDMを活用して、レーダーベースの衛星画像データセットを複数生成する。
PDMは複雑で現実的な構造を持つ画像を生成することに成功したが、サンプリング時間は依然として問題である。
論文 参考訳(メタデータ) (2023-08-31T16:26:17Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Robust Human Detection under Visual Degradation via Thermal and mmWave
Radar Fusion [4.178845249771262]
携帯型熱カメラと単チップmm波レーダを組み合わせたマルチモーダル人体検知システムを提案する。
本稿では, ベイズ特徴抽出器と, 競合する様々な手法を超越した新しい不確実性誘導融合法を提案する。
提案手法を実世界のデータ収集において評価し,提案手法が最先端の手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2023-07-07T14:23:20Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Depth Estimation from Monocular Images and Sparse radar using Deep
Ordinal Regression Network [2.0446891814677692]
我々は, スパースレーダデータを単眼深度推定モデルに統合し, レーダによって提供されるスパースネスと限られた視野を減らすための新しい前処理手法を提案する。
本稿では,Fuらによる深度回帰ネットワークに基づく深度学習を用いて,単眼2次元画像から高密度深度マップを推定する手法を提案する。
論文 参考訳(メタデータ) (2021-07-15T20:17:48Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。