論文の概要: Simulate Any Radar: Attribute-Controllable Radar Simulation via Waveform Parameter Embedding
- arxiv url: http://arxiv.org/abs/2506.03134v1
- Date: Tue, 03 Jun 2025 17:58:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.981929
- Title: Simulate Any Radar: Attribute-Controllable Radar Simulation via Waveform Parameter Embedding
- Title(参考訳): 任意のレーダのシミュレーション:波形パラメータ埋め込みによる属性制御可能なレーダシミュレーション
- Authors: Weiqing Xiao, Hao Huang, Chonghao Zhong, Yujie Lin, Nan Wang, Xiaoxue Chen, Zhaoxi Chen, Saining Zhang, Shuocheng Yang, Pierre Merriaux, Lei Lei, Hao Zhao,
- Abstract要約: SA-Radarは、カスタマイズ可能なレーダー属性に基づいて、制御可能で効率的なレーダーキューブの生成を可能にするレーダーシミュレーションアプローチである。
我々は、波形パラメータを符号化したレーダ属性を条件とした3次元U-NetであるICFAR-Netを設計し、異なるレーダ構成によって引き起こされる信号の変動を捉える。
我々のフレームワークは、新しいセンサ視点と編集シーンのシミュレーションもサポートしており、自動運転アプリケーションのための汎用レーダーデータエンジンとしての可能性を示している。
- 参考スコア(独自算出の注目度): 12.285004244174917
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present SA-Radar (Simulate Any Radar), a radar simulation approach that enables controllable and efficient generation of radar cubes conditioned on customizable radar attributes. Unlike prior generative or physics-based simulators, SA-Radar integrates both paradigms through a waveform-parameterized attribute embedding. We design ICFAR-Net, a 3D U-Net conditioned on radar attributes encoded via waveform parameters, which captures signal variations induced by different radar configurations. This formulation bypasses the need for detailed radar hardware specifications and allows efficient simulation of range-azimuth-Doppler (RAD) tensors across diverse sensor settings. We further construct a mixed real-simulated dataset with attribute annotations to robustly train the network. Extensive evaluations on multiple downstream tasks-including 2D/3D object detection and radar semantic segmentation-demonstrate that SA-Radar's simulated data is both realistic and effective, consistently improving model performance when used standalone or in combination with real data. Our framework also supports simulation in novel sensor viewpoints and edited scenes, showcasing its potential as a general-purpose radar data engine for autonomous driving applications. Code and additional materials are available at https://zhuxing0.github.io/projects/SA-Radar.
- Abstract(参考訳): 本稿では,SA-Radar(Simulate Any Radar)という,カスタマイズ可能なレーダ属性に条件付けされたレーダキューブを制御可能かつ効率的に生成するレーダーシミュレーション手法を提案する。
以前の生成型や物理ベースのシミュレータとは異なり、SA-Radarは波形パラメータ化属性の埋め込みを通じて両方のパラダイムを統合する。
我々は、波形パラメータを符号化したレーダ属性を条件とした3次元U-NetであるICFAR-Netを設計し、異なるレーダ構成によって引き起こされる信号の変動を捉える。
この定式化は、詳細なレーダーハードウェア仕様の必要性を回避し、多様なセンサー設定にわたるレンジ・アジマス・ドップラー(RAD)テンソルの効率的なシミュレーションを可能にする。
さらに、属性アノテーションを付加した混合実シミュレーションデータセットを構築し、ネットワークを堅牢にトレーニングする。
2D/3Dオブジェクト検出とレーダセマンティックセグメンテーション-デモレートを含む、複数の下流タスクに対する広範囲な評価では、SA-Radarのシミュレーションデータは、現実的かつ効果的であり、スタンドアロンまたは実際のデータと組み合わせて使用する場合のモデルパフォーマンスを一貫して改善している。
我々のフレームワークは、新しいセンサ視点と編集シーンのシミュレーションもサポートしており、自動運転アプリケーションのための汎用レーダーデータエンジンとしての可能性を示している。
コードと追加資料はhttps://zhuxing0.github.io/projects/SA-Radar.orgで公開されている。
関連論文リスト
- RadarSplat: Radar Gaussian Splatting for High-Fidelity Data Synthesis and 3D Reconstruction of Autonomous Driving Scenes [8.117954246685976]
高忠実度3Dシーン再構成は、既存のデータセットから新たなデータ生成を可能にすることで、自動運転において重要な役割を果たす。
レーダーは、雨や霧、雪など、光学センサーがしばしば苦労する悪天候の状況において、頑丈さのために自律運転に不可欠である。
本稿では,ガウススプラッティングと新しいレーダノイズモデリングを統合し,リアルなレーダデータ合成と3次元再構成を実現するRadarSplatを提案する。
論文 参考訳(メタデータ) (2025-06-02T07:14:27Z) - Simulating Automotive Radar with Lidar and Camera Inputs [14.196071603770251]
低コストのミリメートルレーダーは、自動運転車の悪天候や照明条件に対処する能力により、ますます注目を集めている。
本稿では,4次元ミリ波レーダ信号のシミュレートをカメラ画像,光検出・測光(ライダー)点雲,エゴ速度を用いて行う新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-11T05:59:43Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - RadSimReal: Bridging the Gap Between Synthetic and Real Data in Radar Object Detection With Simulation [6.0158981171030685]
RadSimRealは、アノテーションを伴う合成レーダー画像を生成することができる革新的な物理レーダーシミュレーションである。
以上の結果から,RadSimRealデータを用いたオブジェクト検出モデルのトレーニングは,同一データセットの実際のデータ上でトレーニングおよびテストされたモデルに匹敵する性能レベルを達成することが示された。
この革新的なツールは、レーダーベースの自動運転アプリケーションのためのコンピュータビジョンアルゴリズムの開発を前進させる可能性がある。
論文 参考訳(メタデータ) (2024-04-28T11:55:50Z) - G3R: Generating Rich and Fine-grained mmWave Radar Data from 2D Videos for Generalized Gesture Recognition [19.95047010486547]
我々は、リッチな2Dビデオを利用してリアルなレーダデータを生成するソフトウェアパイプラインを開発した。
ユーザジェスチャの多彩できめ細かな反射特性をシミュレートする課題に対処する。
我々は、公開データソースと自己収集現実レーダデータからの2Dビデオを用いて、G3Rを実装し、評価する。
論文 参考訳(メタデータ) (2024-04-23T11:22:59Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - Experiments with mmWave Automotive Radar Test-bed [10.006245521984697]
新しいAdaptive Driver Assisted Systems(ADAS)をサポートするために、ミリ波(mmW)レーダーが商用車にますます統合されている。
テキサス・インスツルメンツ(TI)の自動車チップセットをベースとしたFMCWレーダの試作を行った。
論文 参考訳(メタデータ) (2019-12-29T02:14:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。