論文の概要: A Generative Adversarial Network-based Method for LiDAR-Assisted Radar Image Enhancement
- arxiv url: http://arxiv.org/abs/2409.00196v1
- Date: Fri, 30 Aug 2024 18:22:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 16:37:47.874920
- Title: A Generative Adversarial Network-based Method for LiDAR-Assisted Radar Image Enhancement
- Title(参考訳): LiDAR支援レーダ画像強調のための逆ネットワーク生成手法
- Authors: Thakshila Thilakanayake, Oscar De Silva, Thumeera R. Wanasinghe, George K. Mann, Awantha Jayasiri,
- Abstract要約: 本稿では, レーダ画像強調のためのGAN(Generative Adversarial Network)に基づく手法を提案する。
提案手法は,高分解能2次元投影光検出・測光(LiDAR)点雲を地中真理画像として利用する。
提案手法の有効性は,定性的および定量的な結果によって実証される。
- 参考スコア(独自算出の注目度): 0.8528401618469594
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a generative adversarial network (GAN) based approach for radar image enhancement. Although radar sensors remain robust for operations under adverse weather conditions, their application in autonomous vehicles (AVs) is commonly limited by the low-resolution data they produce. The primary goal of this study is to enhance the radar images to better depict the details and features of the environment, thereby facilitating more accurate object identification in AVs. The proposed method utilizes high-resolution, two-dimensional (2D) projected light detection and ranging (LiDAR) point clouds as ground truth images and low-resolution radar images as inputs to train the GAN. The ground truth images were obtained through two main steps. First, a LiDAR point cloud map was generated by accumulating raw LiDAR scans. Then, a customized LiDAR point cloud cropping and projection method was employed to obtain 2D projected LiDAR point clouds. The inference process of the proposed method relies solely on radar images to generate an enhanced version of them. The effectiveness of the proposed method is demonstrated through both qualitative and quantitative results. These results show that the proposed method can generate enhanced images with clearer object representation compared to the input radar images, even under adverse weather conditions.
- Abstract(参考訳): 本稿では,レーダ画像強調のためのGAN(Generative Adversarial Network)に基づくアプローチを提案する。
レーダーセンサーは、悪天候下での運用には頑丈だが、自動運転車(AV)への適用は、通常、低解像度のデータによって制限される。
本研究の主な目的は、レーダー画像を拡張し、環境の詳細と特徴をより正確に表現し、AVにおけるより正確な物体識別を容易にすることである。
提案手法は,高分解能2次元投影光検出・測光(LiDAR)点雲を地上の真理画像として,低分解能レーダ画像を入力としてGANを訓練する。
地上の真理像は2つの主要な段階から得られた。
まず、生のLiDARスキャンを蓄積してLiDAR点雲マップを生成する。
次に、2次元投影されたLiDAR点雲を得るために、カスタマイズされたLiDAR点雲の収穫・投射法を採用した。
提案手法の推論過程はレーダー画像にのみ依存し,その拡張版を生成する。
提案手法の有効性は,定性的および定量的な結果によって実証される。
提案手法は, 気象条件下であっても, 入力レーダ画像と比較して, より鮮明なオブジェクト表現で高画質な画像を生成することができることを示す。
関連論文リスト
- LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
LiDARシミュレーションは、自動運転におけるクローズドループシミュレーションにおいて重要な役割を果たす。
都市景観におけるLiDARセンサスキャンをリアルタイムに再現するために,最初のLiDARガウス法であるLiDAR-GSを提案する。
我々の手法は、深度、強度、レイドロップチャンネルを同時に再現することに成功し、公開可能な大規模シーンデータセットにおけるフレームレートと品質の両方のレンダリング結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Redefining Automotive Radar Imaging: A Domain-Informed 1D Deep Learning Approach for High-Resolution and Efficient Performance [6.784861785632841]
本研究では,1次元(1次元)信号の超解像スペクトル推定問題として,レーダー画像の超解像を再定義する。
自動車レーダイメージングのための最適化されたディープラーニングネットワークは、優れたスケーラビリティ、パラメータ効率、高速推論速度を示す。
我々のSR-SPECNetは、高解像度のレーダレンジ方位画像を作成するための新しいベンチマークを設定している。
論文 参考訳(メタデータ) (2024-06-11T16:07:08Z) - Diffusion-Based Point Cloud Super-Resolution for mmWave Radar Data [8.552647576661174]
ミリ波レーダセンサは、環境条件下では安定した性能を維持している。
レーダー点雲は比較的希薄で、巨大なゴーストポイントを含んでいる。
本稿では3次元ミリ波レーダデータに対する新しい点雲超解像法,Radar-diffusionを提案する。
論文 参考訳(メタデータ) (2024-04-09T04:41:05Z) - Towards Dense and Accurate Radar Perception Via Efficient Cross-Modal Diffusion Model [4.269423698485249]
本稿では, クロスモーダル学習による高密度かつ高精度なミリ波レーダポイント雲構築手法を提案する。
具体的には, 2組の生レーダデータからLiDARのような点雲を予測するために, 生成モデルにおける最先端性能を有する拡散モデルを提案する。
提案手法をベンチマーク比較と実世界の実験により検証し,その優れた性能と一般化能力を実証した。
論文 参考訳(メタデータ) (2024-03-13T12:20:20Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model [13.214257841152033]
レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり注目されていない。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また、チャネルチャープ時マージモジュールを導入し、精度を損なうことなく、モデルのサイズと複雑さを10倍以上に削減する。
論文 参考訳(メタデータ) (2023-04-17T17:07:35Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。