論文の概要: Redefining Automotive Radar Imaging: A Domain-Informed 1D Deep Learning Approach for High-Resolution and Efficient Performance
- arxiv url: http://arxiv.org/abs/2406.07399v1
- Date: Tue, 11 Jun 2024 16:07:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 15:15:04.827966
- Title: Redefining Automotive Radar Imaging: A Domain-Informed 1D Deep Learning Approach for High-Resolution and Efficient Performance
- Title(参考訳): 自動車レーダ画像の再定義:高分解能・高能率化のためのドメインインフォーム1次元ディープラーニングアプローチ
- Authors: Ruxin Zheng, Shunqiao Sun, Holger Caesar, Honglei Chen, Jian Li,
- Abstract要約: 本研究では,1次元(1次元)信号の超解像スペクトル推定問題として,レーダー画像の超解像を再定義する。
自動車レーダイメージングのための最適化されたディープラーニングネットワークは、優れたスケーラビリティ、パラメータ効率、高速推論速度を示す。
我々のSR-SPECNetは、高解像度のレーダレンジ方位画像を作成するための新しいベンチマークを設定している。
- 参考スコア(独自算出の注目度): 6.784861785632841
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Millimeter-wave (mmWave) radars are indispensable for perception tasks of autonomous vehicles, thanks to their resilience in challenging weather conditions. Yet, their deployment is often limited by insufficient spatial resolution for precise semantic scene interpretation. Classical super-resolution techniques adapted from optical imaging inadequately address the distinct characteristics of radar signal data. In response, our study redefines radar imaging super-resolution as a one-dimensional (1D) signal super-resolution spectra estimation problem by harnessing the radar signal processing domain knowledge, introducing innovative data normalization and a domain-informed signal-to-noise ratio (SNR)-guided loss function. Our tailored deep learning network for automotive radar imaging exhibits remarkable scalability, parameter efficiency and fast inference speed, alongside enhanced performance in terms of radar imaging quality and resolution. Extensive testing confirms that our SR-SPECNet sets a new benchmark in producing high-resolution radar range-azimuth images, outperforming existing methods across varied antenna configurations and dataset sizes. Source code and new radar dataset will be made publicly available online.
- Abstract(参考訳): ミリ波レーダー(mmWave)は、厳しい気象条件下での弾力性のおかげで、自動運転車の認識タスクには不可欠である。
しかし、それらの展開は、正確なセマンティックシーンの解釈に不十分な空間分解能によって制限されることが多い。
光学画像から適応した古典的超解像技術は、レーダ信号データの異なる特性に不十分に対処する。
そこで本研究では,レーダ信号処理領域の知識を活用し,革新的なデータ正規化とドメインインフォームド信号-雑音比(SNR)誘導損失関数を導入することで,1次元(1次元)信号超解像スペクトル推定問題として,レーダ画像の超解像を再定義する。
我々の自動車用レーダイメージングのための最適化されたディープラーニングネットワークは、レーダ画像の品質と解像度の点で、優れたスケーラビリティ、パラメータ効率、高速推論速度を示します。
拡張テストでは、SR-SPECNetが高解像度のレーダレンジ方位画像を生成するための新しいベンチマークを設定し、アンテナ構成やデータセットサイズにまたがる既存の手法よりも優れていることを確認した。
ソースコードと新しいレーダーデータセットは、オンラインで公開されている。
関連論文リスト
- Enabling Visual Recognition at Radio Frequency [13.399148413043411]
PanoRadarは、RF分解能をLiDARに近づける新しいRFイメージングシステムである。
結果は、初めて、無線周波数での様々な視覚的認識タスクを可能にします。
以上の結果から,パノラダルの12棟の建物における堅牢な性能が示された。
論文 参考訳(メタデータ) (2024-05-29T20:52:59Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Super-Resolution Radar Imaging with Sparse Arrays Using a Deep Neural
Network Trained with Enhanced Virtual Data [0.4640835690336652]
本稿では,極薄レーダー開口部からのレーダデータを完全に処理できるディープニューラルネットワーク(DNN)に基づく手法を提案する。
提案したDNN処理は、エイリアスフリーレーダイメージングと超解像の両方を提供することができる。
完全に占有された配列で達成されるのとほぼ同じ解像度と画質を同時に提供する。
論文 参考訳(メタデータ) (2023-06-16T13:37:47Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model [13.214257841152033]
レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり注目されていない。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また、チャネルチャープ時マージモジュールを導入し、精度を損なうことなく、モデルのサイズと複雑さを10倍以上に削減する。
論文 参考訳(メタデータ) (2023-04-17T17:07:35Z) - Coherent, super resolved radar beamforming using self-supervised
learning [0.0]
自己スーパービジョン(R2-S2)を用いたレーダ信号再構成は、物理チャネルの数を増やすことなく、所定のレーダアレイの角分解能を著しく向上させる。
R2-S2は、DNN(Deep Neural Network)と複雑なレンジドップラーレーダーデータを入力として使用し、自己教師された方法で訓練するアルゴリズムのファミリーである。
都市部と高速道路の環境下で収集した実世界のデータセットを用いて,角分解能の4倍の改善を実証した。
論文 参考訳(メタデータ) (2021-06-21T16:59:55Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。