論文の概要: Radar2Shape: 3D Shape Reconstruction from High-Frequency Radar using Multiresolution Signed Distance Functions
- arxiv url: http://arxiv.org/abs/2511.17484v1
- Date: Fri, 21 Nov 2025 18:40:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.168006
- Title: Radar2Shape: 3D Shape Reconstruction from High-Frequency Radar using Multiresolution Signed Distance Functions
- Title(参考訳): Radar2Shape:多分解能符号距離関数を用いた高周波レーダからの3次元形状再構成
- Authors: Neel Sortur, Justin Goodwin, Purvik Patel, Luis Enrique Martinez, Tzofi Klinghoffer, Rajmonda S. Caceres, Robin Walters,
- Abstract要約: 本稿では, 部分的に観測可能なレーダー信号を3次元再構成する拡散モデルRadar2Shapeを提案する。
我々はRadar2Shapeが部分的に観測されたレーダ信号からでも任意の3次元形状を復元できることを実証した。
- 参考スコア(独自算出の注目度): 11.138924354650582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Determining the shape of 3D objects from high-frequency radar signals is analytically complex but critical for commercial and aerospace applications. Previous deep learning methods have been applied to radar modeling; however, they often fail to represent arbitrary shapes or have difficulty with real-world radar signals which are collected over limited viewing angles. Existing methods in optical 3D reconstruction can generate arbitrary shapes from limited camera views, but struggle when they naively treat the radar signal as a camera view. In this work, we present Radar2Shape, a denoising diffusion model that handles a partially observable radar signal for 3D reconstruction by correlating its frequencies with multiresolution shape features. Our method consists of a two-stage approach: first, Radar2Shape learns a regularized latent space with hierarchical resolutions of shape features, and second, it diffuses into this latent space by conditioning on the frequencies of the radar signal in an analogous coarse-to-fine manner. We demonstrate that Radar2Shape can successfully reconstruct arbitrary 3D shapes even from partially-observed radar signals, and we show robust generalization to two different simulation methods and real-world data. Additionally, we release two synthetic benchmark datasets to encourage future research in the high-frequency radar domain so that models like Radar2Shape can safely be adapted into real-world radar systems.
- Abstract(参考訳): 高周波レーダ信号から3次元物体の形状を決定することは、解析的に複雑だが、商業的・航空宇宙的応用には不可欠である。
従来のディープラーニング手法はレーダーモデリングに応用されてきたが、任意の形状を表現できない場合や、限られた視角で収集される現実世界のレーダ信号に難易度がある場合が多い。
光3D再構成の既存の方法は、限られたカメラビューから任意の形状を生成することができるが、レーダー信号をカメラビューとして鼻で扱うと苦労する。
本稿では,その周波数と多分解能形状の特徴を相関させて,部分的に観測可能なレーダ信号を3次元再構成する拡散モデルRadar2Shapeを提案する。
まず、Radar2Shapeは、形状特徴の階層的な分解能を持つ正規化潜時空間を学習し、次に、レーダ信号の周波数を類似の粗大な方法で条件付けすることで、この潜時空間に拡散する。
我々は、Radar2Shapeが部分的に観測されたレーダー信号からでも任意の3次元形状を再構成できることを示し、二つの異なるシミュレーション手法と実世界のデータに対して堅牢な一般化を示す。
さらに、Radar2Shapeのようなモデルが現実世界のレーダシステムに安全に適応できるように、高周波レーダ領域における将来の研究を促進するために、2つの総合ベンチマークデータセットをリリースする。
関連論文リスト
- Simulate Any Radar: Attribute-Controllable Radar Simulation via Waveform Parameter Embedding [12.285004244174917]
SA-Radarは、カスタマイズ可能なレーダー属性に基づいて、制御可能で効率的なレーダーキューブの生成を可能にするレーダーシミュレーションアプローチである。
我々は、波形パラメータを符号化したレーダ属性を条件とした3次元U-NetであるICFAR-Netを設計し、異なるレーダ構成によって引き起こされる信号の変動を捉える。
我々のフレームワークは、新しいセンサ視点と編集シーンのシミュレーションもサポートしており、自動運転アプリケーションのための汎用レーダーデータエンジンとしての可能性を示している。
論文 参考訳(メタデータ) (2025-06-03T17:58:28Z) - Simulating Automotive Radar with Lidar and Camera Inputs [10.56730571225466]
低コストのミリメートルレーダーは、自動運転車の悪天候や照明条件に対処する能力により、ますます注目を集めている。
本稿では,4次元ミリ波レーダ信号のシミュレートをカメラ画像,光検出・測光(ライダー)点雲,エゴ速度を用いて行う新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-11T05:59:43Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - V2X-R: Cooperative LiDAR-4D Radar Fusion with Denoising Diffusion for 3D Object Detection [64.93675471780209]
我々は、LiDAR、カメラ、および4Dレーダを取り入れた初のシミュレーションV2XデータセットであるV2X-Rを提案する。
V2X-Rには12,079のシナリオがあり、LiDARと4Dレーダーポイント雲の37,727フレーム、150,908の画像、170,859の注釈付き3D車両バウンディングボックスがある。
本稿では,3次元物体検出のための新しいコラボレーティブLiDAR-4Dレーダ融合パイプラインを提案し,様々な融合戦略を用いて実装する。
論文 参考訳(メタデータ) (2024-11-13T07:41:47Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - G3R: Generating Rich and Fine-grained mmWave Radar Data from 2D Videos for Generalized Gesture Recognition [19.95047010486547]
我々は、リッチな2Dビデオを利用してリアルなレーダデータを生成するソフトウェアパイプラインを開発した。
ユーザジェスチャの多彩できめ細かな反射特性をシミュレートする課題に対処する。
我々は、公開データソースと自己収集現実レーダデータからの2Dビデオを用いて、G3Rを実装し、評価する。
論文 参考訳(メタデータ) (2024-04-23T11:22:59Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - 3D Reconstruction of Multiple Objects by mmWave Radar on UAV [15.47494720280318]
UAVに搭載されたミリ波レーダーセンサを用いて空間内の複数の物体の3次元形状を再構成する可能性を検討する。
UAVは宇宙の様々な場所でホバリングし、搭載されたレーダーセンサーはSAR(Synthetic Aperture Radar)操作で空間をスキャンすることで生のレーダーデータを収集する。
レーダデータはディープニューラルネットワークモデルに送信され、空間内の複数のオブジェクトの点雲再構成を出力する。
論文 参考訳(メタデータ) (2022-11-03T21:23:36Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。