論文の概要: Toward a Low-Cost Perception System in Autonomous Vehicles: A Spectrum Learning Approach
- arxiv url: http://arxiv.org/abs/2502.01940v1
- Date: Tue, 04 Feb 2025 02:20:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:56:42.265065
- Title: Toward a Low-Cost Perception System in Autonomous Vehicles: A Spectrum Learning Approach
- Title(参考訳): 自律走行車における低コスト知覚システムに向けて:スペクトル学習アプローチ
- Authors: Mohammed Alsakabi, Aidan Erickson, John M. Dolan, Ozan K. Tonguz,
- Abstract要約: 本稿では,Bartlettの空間スペクトル推定手法に着想を得た新しい画素位置符号化アルゴリズムを提案する。
提案手法は,高分解能カメラ画像を利用してレーダ深度マップ生成モデルを訓練する。
提案手法は,一方向チャンファー距離(UCD)において,最先端技術(SOTA)を27.95%向上させることを示す。
- 参考スコア(独自算出の注目度): 19.23732332126651
- License:
- Abstract: We present a cost-effective new approach for generating denser depth maps for Autonomous Driving (AD) and Autonomous Vehicles (AVs) by integrating the images obtained from deep neural network (DNN) 4D radar detectors with conventional camera RGB images. Our approach introduces a novel pixel positional encoding algorithm inspired by Bartlett's spatial spectrum estimation technique. This algorithm transforms both radar depth maps and RGB images into a unified pixel image subspace called the Spatial Spectrum, facilitating effective learning based on their similarities and differences. Our method effectively leverages high-resolution camera images to train radar depth map generative models, addressing the limitations of conventional radar detectors in complex vehicular environments, thus sharpening the radar output. We develop spectrum estimation algorithms tailored for radar depth maps and RGB images, a comprehensive training framework for data-driven generative models, and a camera-radar deployment scheme for AV operation. Our results demonstrate that our approach also outperforms the state-of-the-art (SOTA) by 27.95% in terms of Unidirectional Chamfer Distance (UCD).
- Abstract(参考訳): 本稿では,ディープニューラルネットワーク(DNN)4Dレーダ検出器から得られた画像と従来のカメラRGB画像を統合することで,自律走行(AD)および自律走行(AV)のためのより高密度な深度マップを生成するためのコスト効率のよい新しいアプローチを提案する。
本稿では,Bartlettの空間スペクトル推定法に着想を得た新しい画素位置符号化アルゴリズムを提案する。
このアルゴリズムは、レーダ深度マップとRGB画像の両方をSpatial Spectrumと呼ばれる統一されたピクセル画像サブスペースに変換する。
提案手法は,高分解能カメラ画像を利用してレーダ深度マップ生成モデルを訓練し,複雑な車両環境下での従来のレーダ検出器の限界に対処し,レーダ出力を鋭くする。
本研究では,レーダ深度マップやRGB画像に適したスペクトル推定アルゴリズム,データ駆動生成モデルのための総合的なトレーニングフレームワーク,AV運用のためのカメラレーダ配置方式を開発した。
提案手法は,一方向チャンファー距離(UCD)において,最先端技術(SOTA)を27.95%向上させることを示す。
関連論文リスト
- A Resource Efficient Fusion Network for Object Detection in Bird's-Eye View using Camera and Raw Radar Data [7.2508100569856975]
レーダデータの生のレンジ・ドップラースペクトルを用いてカメラ画像を処理する。
カメラエンコーダデコーダアーキテクチャを用いて,対応する特徴を抽出する。
得られた特徴写像はレンジ・アジマス特徴と融合し、RDスペクトルから復元して物体検出を行う。
論文 参考訳(メタデータ) (2024-11-20T13:26:13Z) - Redefining Automotive Radar Imaging: A Domain-Informed 1D Deep Learning Approach for High-Resolution and Efficient Performance [6.784861785632841]
本研究では,1次元(1次元)信号の超解像スペクトル推定問題として,レーダー画像の超解像を再定義する。
自動車レーダイメージングのための最適化されたディープラーニングネットワークは、優れたスケーラビリティ、パラメータ効率、高速推論速度を示す。
我々のSR-SPECNetは、高解像度のレーダレンジ方位画像を作成するための新しいベンチマークを設定している。
論文 参考訳(メタデータ) (2024-06-11T16:07:08Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - DART: Implicit Doppler Tomography for Radar Novel View Synthesis [9.26298115522881]
DARTは、レーダ固有の物理を用いて、レンジドップラー画像のための反射率および透過率に基づくレンダリングパイプラインを作成する、ニューラルラジアンスフィールドにインスパイアされた方法である。
最先端のベースラインと比較して、DARTはすべてのデータセットにまたがる新しいビューから優れたレーダレンジ・ドップラー画像を合成する。
論文 参考訳(メタデータ) (2024-03-06T17:54:50Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Deep Radar Inverse Sensor Models for Dynamic Occupancy Grid Maps [0.0]
本稿では,レーダー検出から極性測定格子へのマッピングを学習するために,深層学習に基づく逆センサモデル(ISM)を提案する。
私たちのアプローチは、視野の限られたレーダーから極性スキームで1フレームの計測グリッドを学習する最初の方法です。
これにより、ネットワークの再トレーニングや360度センサのカバレッジの必要なしに、1つ以上のレーダーセンサーを柔軟に使用することが可能になります。
論文 参考訳(メタデータ) (2023-05-21T09:09:23Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Toward Data-Driven STAP Radar [23.333816677794115]
我々は、時空間適応処理(STAP)レーダーに対するデータ駆動アプローチを特徴付ける。
所定領域に可変強度のターゲットをランダムに配置することにより、受信レーダ信号の豊富なサンプルデータセットを生成する。
この領域内の各データサンプルに対して、ビームフォーマの出力パワーのレンジ、方位、および上昇のヒートマップテンソルを生成する。
空中に浮かぶシナリオでは、動くレーダーは、ビデオに似た、これらのタイムインデクシングされたイメージスタックのシーケンスを生成する。
論文 参考訳(メタデータ) (2022-01-26T02:28:13Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。