論文の概要: Redefining Automotive Radar Imaging: A Domain-Informed 1D Deep Learning Approach for High-Resolution and Efficient Performance
- arxiv url: http://arxiv.org/abs/2406.07399v1
- Date: Tue, 11 Jun 2024 16:07:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 15:15:04.827966
- Title: Redefining Automotive Radar Imaging: A Domain-Informed 1D Deep Learning Approach for High-Resolution and Efficient Performance
- Title(参考訳): 自動車レーダ画像の再定義:高分解能・高能率化のためのドメインインフォーム1次元ディープラーニングアプローチ
- Authors: Ruxin Zheng, Shunqiao Sun, Holger Caesar, Honglei Chen, Jian Li,
- Abstract要約: 本研究では,1次元(1次元)信号の超解像スペクトル推定問題として,レーダー画像の超解像を再定義する。
自動車レーダイメージングのための最適化されたディープラーニングネットワークは、優れたスケーラビリティ、パラメータ効率、高速推論速度を示す。
我々のSR-SPECNetは、高解像度のレーダレンジ方位画像を作成するための新しいベンチマークを設定している。
- 参考スコア(独自算出の注目度): 6.784861785632841
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Millimeter-wave (mmWave) radars are indispensable for perception tasks of autonomous vehicles, thanks to their resilience in challenging weather conditions. Yet, their deployment is often limited by insufficient spatial resolution for precise semantic scene interpretation. Classical super-resolution techniques adapted from optical imaging inadequately address the distinct characteristics of radar signal data. In response, our study redefines radar imaging super-resolution as a one-dimensional (1D) signal super-resolution spectra estimation problem by harnessing the radar signal processing domain knowledge, introducing innovative data normalization and a domain-informed signal-to-noise ratio (SNR)-guided loss function. Our tailored deep learning network for automotive radar imaging exhibits remarkable scalability, parameter efficiency and fast inference speed, alongside enhanced performance in terms of radar imaging quality and resolution. Extensive testing confirms that our SR-SPECNet sets a new benchmark in producing high-resolution radar range-azimuth images, outperforming existing methods across varied antenna configurations and dataset sizes. Source code and new radar dataset will be made publicly available online.
- Abstract(参考訳): ミリ波レーダー(mmWave)は、厳しい気象条件下での弾力性のおかげで、自動運転車の認識タスクには不可欠である。
しかし、それらの展開は、正確なセマンティックシーンの解釈に不十分な空間分解能によって制限されることが多い。
光学画像から適応した古典的超解像技術は、レーダ信号データの異なる特性に不十分に対処する。
そこで本研究では,レーダ信号処理領域の知識を活用し,革新的なデータ正規化とドメインインフォームド信号-雑音比(SNR)誘導損失関数を導入することで,1次元(1次元)信号超解像スペクトル推定問題として,レーダ画像の超解像を再定義する。
我々の自動車用レーダイメージングのための最適化されたディープラーニングネットワークは、レーダ画像の品質と解像度の点で、優れたスケーラビリティ、パラメータ効率、高速推論速度を示します。
拡張テストでは、SR-SPECNetが高解像度のレーダレンジ方位画像を生成するための新しいベンチマークを設定し、アンテナ構成やデータセットサイズにまたがる既存の手法よりも優れていることを確認した。
ソースコードと新しいレーダーデータセットは、オンラインで公開されている。
関連論文リスト
- RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - Toward a Low-Cost Perception System in Autonomous Vehicles: A Spectrum Learning Approach [19.23732332126651]
本稿では,Bartlettの空間スペクトル推定手法に着想を得た新しい画素位置符号化アルゴリズムを提案する。
提案手法は,高分解能カメラ画像を利用してレーダ深度マップ生成モデルを訓練する。
提案手法は,一方向チャンファー距離(UCD)において,最先端技術(SOTA)を27.95%向上させることを示す。
論文 参考訳(メタデータ) (2025-02-04T02:20:52Z) - TransRAD: Retentive Vision Transformer for Enhanced Radar Object Detection [6.163747364795787]
本稿では,新しい3次元レーダ物体検出モデルであるTransRADを提案する。
本研究では、ディープレーダオブジェクト検出における重複境界ボックスの共通問題を軽減するために、位置認識型NMSを提案する。
その結果,TransRADは2次元および3次元のレーダ検出タスクにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-01-29T20:21:41Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Super-Resolution Radar Imaging with Sparse Arrays Using a Deep Neural
Network Trained with Enhanced Virtual Data [0.4640835690336652]
本稿では,極薄レーダー開口部からのレーダデータを完全に処理できるディープニューラルネットワーク(DNN)に基づく手法を提案する。
提案したDNN処理は、エイリアスフリーレーダイメージングと超解像の両方を提供することができる。
完全に占有された配列で達成されるのとほぼ同じ解像度と画質を同時に提供する。
論文 参考訳(メタデータ) (2023-06-16T13:37:47Z) - Coherent, super resolved radar beamforming using self-supervised
learning [0.0]
自己スーパービジョン(R2-S2)を用いたレーダ信号再構成は、物理チャネルの数を増やすことなく、所定のレーダアレイの角分解能を著しく向上させる。
R2-S2は、DNN(Deep Neural Network)と複雑なレンジドップラーレーダーデータを入力として使用し、自己教師された方法で訓練するアルゴリズムのファミリーである。
都市部と高速道路の環境下で収集した実世界のデータセットを用いて,角分解能の4倍の改善を実証した。
論文 参考訳(メタデータ) (2021-06-21T16:59:55Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。