論文の概要: RadarGen: Automotive Radar Point Cloud Generation from Cameras
- arxiv url: http://arxiv.org/abs/2512.17897v1
- Date: Fri, 19 Dec 2025 18:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.535717
- Title: RadarGen: Automotive Radar Point Cloud Generation from Cameras
- Title(参考訳): RadarGen: カメラによる自動車用レーダーポイントクラウド生成
- Authors: Tomer Borreda, Fangqiang Ding, Sanja Fidler, Shengyu Huang, Or Litany,
- Abstract要約: マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、鳥の目視でレーダー計測を表現することで、レーダ領域への効率的な画像遅延拡散を適応する。
本稿では,RadarGenが特徴的レーダ計測分布を捕捉し,実データに基づいて学習した知覚モデルとのギャップを小さくすることを示す。
- 参考スコア(独自算出の注目度): 64.69976771710057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present RadarGen, a diffusion model for synthesizing realistic automotive radar point clouds from multi-view camera imagery. RadarGen adapts efficient image-latent diffusion to the radar domain by representing radar measurements in bird's-eye-view form that encodes spatial structure together with radar cross section (RCS) and Doppler attributes. A lightweight recovery step reconstructs point clouds from the generated maps. To better align generation with the visual scene, RadarGen incorporates BEV-aligned depth, semantic, and motion cues extracted from pretrained foundation models, which guide the stochastic generation process toward physically plausible radar patterns. Conditioning on images makes the approach broadly compatible, in principle, with existing visual datasets and simulation frameworks, offering a scalable direction for multimodal generative simulation. Evaluations on large-scale driving data show that RadarGen captures characteristic radar measurement distributions and reduces the gap to perception models trained on real data, marking a step toward unified generative simulation across sensing modalities.
- Abstract(参考訳): マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、レーダー断面(RCS)とドップラー属性と共に空間構造を符号化する鳥眼ビュー形式でのレーダー計測を表現し、レーダ領域への効率的な画像遅延拡散を適応させる。
軽量回復ステップは、生成された地図から点雲を再構成する。
RadarGenは、視覚的なシーンとよりよく一致させるために、事前訓練された基礎モデルから抽出されたBEVの奥行き、意味、動きの手がかりを取り入れ、確率的生成プロセスを物理的に可視なレーダーパターンへと導く。
画像の条件付けは、原則として、既存のビジュアルデータセットとシミュレーションフレームワークと広く互換性があり、マルチモーダル生成シミュレーションのためのスケーラブルな方向を提供する。
大規模運転データの評価によると、RadarGenは特徴的なレーダ計測分布をキャプチャし、実データに基づいて訓練された知覚モデルとのギャップを減らし、センシングモダリティをまたいだ統合生成シミュレーションへの一歩を踏み出した。
関連論文リスト
- Sim2Radar: Toward Bridging the Radar Sim-to-Real Gap with VLM-Guided Scene Reconstruction [2.3510064024442374]
Sim2Radarは、単一ビューのRGBイメージから直接レーダーデータを合成するエンドツーエンドのフレームワークである。
Sim2Radarは、単眼深度推定、セグメンテーション、視覚言語推論を組み合わせることで、素材を意識した3Dシーンを再構築する。
Sim2Radarは、現実世界の屋内シーンで評価され、トランスファーラーニングを通じて下流の3Dレーダー知覚を改善する。
論文 参考訳(メタデータ) (2026-02-10T10:56:47Z) - Synthetic FMCW Radar Range Azimuth Maps Augmentation with Generative Diffusion Model [9.764772760421792]
本稿では,現実的な周波数変調連続波レーダレンジアジマスマップを合成するための条件付き生成フレームワークを提案する。
提案手法は,歩行者,車,サイクリストを含む複数の対象カテゴリーのレーダデータを生成するために,生成拡散モデルを利用する。
論文 参考訳(メタデータ) (2026-01-09T10:59:46Z) - Simulating Automotive Radar with Lidar and Camera Inputs [10.56730571225466]
低コストのミリメートルレーダーは、自動運転車の悪天候や照明条件に対処する能力により、ますます注目を集めている。
本稿では,4次元ミリ波レーダ信号のシミュレートをカメラ画像,光検出・測光(ライダー)点雲,エゴ速度を用いて行う新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-11T05:59:43Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - Toward a Low-Cost Perception System in Autonomous Vehicles: A Spectrum Learning Approach [19.23732332126651]
本稿では,Bartlettの空間スペクトル推定手法に着想を得た新しい画素位置符号化アルゴリズムを提案する。
提案手法は,高分解能カメラ画像を利用してレーダ深度マップ生成モデルを訓練する。
提案手法は,一方向チャンファー距離(UCD)において,最先端技術(SOTA)を27.95%向上させることを示す。
論文 参考訳(メタデータ) (2025-02-04T02:20:52Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - DART: Implicit Doppler Tomography for Radar Novel View Synthesis [9.26298115522881]
DARTは、レーダ固有の物理を用いて、レンジドップラー画像のための反射率および透過率に基づくレンダリングパイプラインを作成する、ニューラルラジアンスフィールドにインスパイアされた方法である。
最先端のベースラインと比較して、DARTはすべてのデータセットにまたがる新しいビューから優れたレーダレンジ・ドップラー画像を合成する。
論文 参考訳(メタデータ) (2024-03-06T17:54:50Z) - Diffusion Models for Interferometric Satellite Aperture Radar [73.01013149014865]
確率拡散モデル (Probabilistic Diffusion Models, PDMs) は、最近、非常に有望な生成モデルのクラスとして登場した。
ここでは、PDMを活用して、レーダーベースの衛星画像データセットを複数生成する。
PDMは複雑で現実的な構造を持つ画像を生成することに成功したが、サンプリング時間は依然として問題である。
論文 参考訳(メタデータ) (2023-08-31T16:26:17Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。