論文の概要: Sim2Radar: Toward Bridging the Radar Sim-to-Real Gap with VLM-Guided Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2602.13314v1
- Date: Tue, 10 Feb 2026 10:56:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:27.845147
- Title: Sim2Radar: Toward Bridging the Radar Sim-to-Real Gap with VLM-Guided Scene Reconstruction
- Title(参考訳): Sim2Radar: VLM誘導シーン再構成によるRadar Sim-to-Real Gapのブリッジに向けて
- Authors: Emily Bejerano, Federico Tondolo, Aayan Qayyum, Xiaofan Yu, Xiaofan Jiang,
- Abstract要約: Sim2Radarは、単一ビューのRGBイメージから直接レーダーデータを合成するエンドツーエンドのフレームワークである。
Sim2Radarは、単眼深度推定、セグメンテーション、視覚言語推論を組み合わせることで、素材を意識した3Dシーンを再構築する。
Sim2Radarは、現実世界の屋内シーンで評価され、トランスファーラーニングを通じて下流の3Dレーダー知覚を改善する。
- 参考スコア(独自算出の注目度): 2.3510064024442374
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Millimeter-wave (mmWave) radar provides reliable perception in visually degraded indoor environments (e.g., smoke, dust, and low light), but learning-based radar perception is bottlenecked by the scarcity and cost of collecting and annotating large-scale radar datasets. We present Sim2Radar, an end-to-end framework that synthesizes training radar data directly from single-view RGB images, enabling scalable data generation without manual scene modeling. Sim2Radar reconstructs a material-aware 3D scene by combining monocular depth estimation, segmentation, and vision-language reasoning to infer object materials, then simulates mmWave propagation with a configurable physics-based ray tracer using Fresnel reflection models parameterized by ITU-R electromagnetic properties. Evaluated on real-world indoor scenes, Sim2Radar improves downstream 3D radar perception via transfer learning: pre-training a radar point-cloud object detection model on synthetic data and fine-tuning on real radar yields up to +3.7 3D AP (IoU 0.3), with gains driven primarily by improved spatial localization. These results suggest that physics-based, vision-driven radar simulation can provide effective geometric priors for radar learning and measurably improve performance under limited real-data supervision.
- Abstract(参考訳): ミリ波レーダは、視覚的に劣化した屋内環境(例えば、煙、塵、低光)において信頼性の高い知覚を提供するが、学習に基づくレーダの認識は、大規模なレーダデータセットの収集と注釈付けの不足とコストによってボトルネックとなる。
我々は,一視点RGB画像から直接レーダデータを合成し,手動シーンモデリングなしでスケーラブルなデータ生成を可能にする,エンドツーエンドのフレームワークであるSim2Radarを提案する。
Sim2Radarは、モノクロ深度推定、セグメンテーション、視覚言語推論を組み合わせた3Dシーンを再構成し、ITU-R電磁特性でパラメータ化されたフレネル反射モデルを用いて、構成可能な物理ベースのレイトレーサを用いてmmWave伝搬をシミュレートする。
Sim2Radarは、現実世界の屋内シーンで評価され、トランスファーラーニングによって下流の3Dレーダの認識を改善している: 合成データにレーダーポイントクラウドオブジェクト検出モデルを事前訓練し、実際のレーダの微調整は、+3.7 3D AP (IoU 0.3)まで増加し、主に空間的ローカライゼーションの改善によって得られる。
これらの結果は,物理に基づく視覚駆動型レーダシミュレーションが,レーダ学習に有効な幾何学的先行性を提供し,限られた実データ監視下での性能向上を実現することを示唆している。
関連論文リスト
- RadarGen: Automotive Radar Point Cloud Generation from Cameras [64.69976771710057]
マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、鳥の目視でレーダー計測を表現することで、レーダ領域への効率的な画像遅延拡散を適応する。
本稿では,RadarGenが特徴的レーダ計測分布を捕捉し,実データに基づいて学習した知覚モデルとのギャップを小さくすることを示す。
論文 参考訳(メタデータ) (2025-12-19T18:57:33Z) - Simulate Any Radar: Attribute-Controllable Radar Simulation via Waveform Parameter Embedding [12.285004244174917]
SA-Radarは、カスタマイズ可能なレーダー属性に基づいて、制御可能で効率的なレーダーキューブの生成を可能にするレーダーシミュレーションアプローチである。
我々は、波形パラメータを符号化したレーダ属性を条件とした3次元U-NetであるICFAR-Netを設計し、異なるレーダ構成によって引き起こされる信号の変動を捉える。
我々のフレームワークは、新しいセンサ視点と編集シーンのシミュレーションもサポートしており、自動運転アプリケーションのための汎用レーダーデータエンジンとしての可能性を示している。
論文 参考訳(メタデータ) (2025-06-03T17:58:28Z) - RadarSplat: Radar Gaussian Splatting for High-Fidelity Data Synthesis and 3D Reconstruction of Autonomous Driving Scenes [8.117954246685976]
高忠実度3Dシーン再構成は、既存のデータセットから新たなデータ生成を可能にすることで、自動運転において重要な役割を果たす。
レーダーは、雨や霧、雪など、光学センサーがしばしば苦労する悪天候の状況において、頑丈さのために自律運転に不可欠である。
本稿では,ガウススプラッティングと新しいレーダノイズモデリングを統合し,リアルなレーダデータ合成と3次元再構成を実現するRadarSplatを提案する。
論文 参考訳(メタデータ) (2025-06-02T07:14:27Z) - Simulating Automotive Radar with Lidar and Camera Inputs [10.56730571225466]
低コストのミリメートルレーダーは、自動運転車の悪天候や照明条件に対処する能力により、ますます注目を集めている。
本稿では,4次元ミリ波レーダ信号のシミュレートをカメラ画像,光検出・測光(ライダー)点雲,エゴ速度を用いて行う新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-11T05:59:43Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - Talk2Radar: Bridging Natural Language with 4D mmWave Radar for 3D Referring Expression Comprehension [21.598751853520834]
4Dミリ波レーダは従来のレーダよりも密度の高い点雲を提供し、オブジェクトの意味的および物理的特性の両方を知覚する。
3次元視覚接地のためのレーダシーンにおける自然言語による文脈理解の開発を促進するため,最初のデータセットTalk2Radarを構築した。
本研究では,ポイントクラウド上での3次元参照表現のための新しいモデルであるT-RadarNetを提案し,Talk2Radarデータセット上でのステートオフ・ザ・アート(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2024-05-21T14:26:36Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - RadSimReal: Bridging the Gap Between Synthetic and Real Data in Radar Object Detection With Simulation [6.0158981171030685]
RadSimRealは、アノテーションを伴う合成レーダー画像を生成することができる革新的な物理レーダーシミュレーションである。
以上の結果から,RadSimRealデータを用いたオブジェクト検出モデルのトレーニングは,同一データセットの実際のデータ上でトレーニングおよびテストされたモデルに匹敵する性能レベルを達成することが示された。
この革新的なツールは、レーダーベースの自動運転アプリケーションのためのコンピュータビジョンアルゴリズムの開発を前進させる可能性がある。
論文 参考訳(メタデータ) (2024-04-28T11:55:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。