論文の概要: RadarGen: Automotive Radar Point Cloud Generation from Cameras
- arxiv url: http://arxiv.org/abs/2512.17897v1
- Date: Fri, 19 Dec 2025 18:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.535717
- Title: RadarGen: Automotive Radar Point Cloud Generation from Cameras
- Title(参考訳): RadarGen: カメラによる自動車用レーダーポイントクラウド生成
- Authors: Tomer Borreda, Fangqiang Ding, Sanja Fidler, Shengyu Huang, Or Litany,
- Abstract要約: マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、鳥の目視でレーダー計測を表現することで、レーダ領域への効率的な画像遅延拡散を適応する。
本稿では,RadarGenが特徴的レーダ計測分布を捕捉し,実データに基づいて学習した知覚モデルとのギャップを小さくすることを示す。
- 参考スコア(独自算出の注目度): 64.69976771710057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present RadarGen, a diffusion model for synthesizing realistic automotive radar point clouds from multi-view camera imagery. RadarGen adapts efficient image-latent diffusion to the radar domain by representing radar measurements in bird's-eye-view form that encodes spatial structure together with radar cross section (RCS) and Doppler attributes. A lightweight recovery step reconstructs point clouds from the generated maps. To better align generation with the visual scene, RadarGen incorporates BEV-aligned depth, semantic, and motion cues extracted from pretrained foundation models, which guide the stochastic generation process toward physically plausible radar patterns. Conditioning on images makes the approach broadly compatible, in principle, with existing visual datasets and simulation frameworks, offering a scalable direction for multimodal generative simulation. Evaluations on large-scale driving data show that RadarGen captures characteristic radar measurement distributions and reduces the gap to perception models trained on real data, marking a step toward unified generative simulation across sensing modalities.
- Abstract(参考訳): マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、レーダー断面(RCS)とドップラー属性と共に空間構造を符号化する鳥眼ビュー形式でのレーダー計測を表現し、レーダ領域への効率的な画像遅延拡散を適応させる。
軽量回復ステップは、生成された地図から点雲を再構成する。
RadarGenは、視覚的なシーンとよりよく一致させるために、事前訓練された基礎モデルから抽出されたBEVの奥行き、意味、動きの手がかりを取り入れ、確率的生成プロセスを物理的に可視なレーダーパターンへと導く。
画像の条件付けは、原則として、既存のビジュアルデータセットとシミュレーションフレームワークと広く互換性があり、マルチモーダル生成シミュレーションのためのスケーラブルな方向を提供する。
大規模運転データの評価によると、RadarGenは特徴的なレーダ計測分布をキャプチャし、実データに基づいて訓練された知覚モデルとのギャップを減らし、センシングモダリティをまたいだ統合生成シミュレーションへの一歩を踏み出した。
関連論文リスト
- Simulating Automotive Radar with Lidar and Camera Inputs [10.56730571225466]
低コストのミリメートルレーダーは、自動運転車の悪天候や照明条件に対処する能力により、ますます注目を集めている。
本稿では,4次元ミリ波レーダ信号のシミュレートをカメラ画像,光検出・測光(ライダー)点雲,エゴ速度を用いて行う新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-11T05:59:43Z) - Toward a Low-Cost Perception System in Autonomous Vehicles: A Spectrum Learning Approach [19.23732332126651]
本稿では,Bartlettの空間スペクトル推定手法に着想を得た新しい画素位置符号化アルゴリズムを提案する。
提案手法は,高分解能カメラ画像を利用してレーダ深度マップ生成モデルを訓練する。
提案手法は,一方向チャンファー距離(UCD)において,最先端技術(SOTA)を27.95%向上させることを示す。
論文 参考訳(メタデータ) (2025-02-04T02:20:52Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - DART: Implicit Doppler Tomography for Radar Novel View Synthesis [9.26298115522881]
DARTは、レーダ固有の物理を用いて、レンジドップラー画像のための反射率および透過率に基づくレンダリングパイプラインを作成する、ニューラルラジアンスフィールドにインスパイアされた方法である。
最先端のベースラインと比較して、DARTはすべてのデータセットにまたがる新しいビューから優れたレーダレンジ・ドップラー画像を合成する。
論文 参考訳(メタデータ) (2024-03-06T17:54:50Z) - Diffusion Models for Interferometric Satellite Aperture Radar [73.01013149014865]
確率拡散モデル (Probabilistic Diffusion Models, PDMs) は、最近、非常に有望な生成モデルのクラスとして登場した。
ここでは、PDMを活用して、レーダーベースの衛星画像データセットを複数生成する。
PDMは複雑で現実的な構造を持つ画像を生成することに成功したが、サンプリング時間は依然として問題である。
論文 参考訳(メタデータ) (2023-08-31T16:26:17Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。