論文の概要: RadarSplat: Radar Gaussian Splatting for High-Fidelity Data Synthesis and 3D Reconstruction of Autonomous Driving Scenes
- arxiv url: http://arxiv.org/abs/2506.01379v1
- Date: Mon, 02 Jun 2025 07:14:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.084847
- Title: RadarSplat: Radar Gaussian Splatting for High-Fidelity Data Synthesis and 3D Reconstruction of Autonomous Driving Scenes
- Title(参考訳): RadarSplat:Radar Gaussian Splatting for High-Fidelity Data Synthesis and 3D Reconstruction of autonomous Driving Scenes
- Authors: Pou-Chun Kung, Skanda Harisha, Ram Vasudevan, Aline Eid, Katherine A. Skinner,
- Abstract要約: 高忠実度3Dシーン再構成は、既存のデータセットから新たなデータ生成を可能にすることで、自動運転において重要な役割を果たす。
レーダーは、雨や霧、雪など、光学センサーがしばしば苦労する悪天候の状況において、頑丈さのために自律運転に不可欠である。
本稿では,ガウススプラッティングと新しいレーダノイズモデリングを統合し,リアルなレーダデータ合成と3次元再構成を実現するRadarSplatを提案する。
- 参考スコア(独自算出の注目度): 8.117954246685976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-Fidelity 3D scene reconstruction plays a crucial role in autonomous driving by enabling novel data generation from existing datasets. This allows simulating safety-critical scenarios and augmenting training datasets without incurring further data collection costs. While recent advances in radiance fields have demonstrated promising results in 3D reconstruction and sensor data synthesis using cameras and LiDAR, their potential for radar remains largely unexplored. Radar is crucial for autonomous driving due to its robustness in adverse weather conditions like rain, fog, and snow, where optical sensors often struggle. Although the state-of-the-art radar-based neural representation shows promise for 3D driving scene reconstruction, it performs poorly in scenarios with significant radar noise, including receiver saturation and multipath reflection. Moreover, it is limited to synthesizing preprocessed, noise-excluded radar images, failing to address realistic radar data synthesis. To address these limitations, this paper proposes RadarSplat, which integrates Gaussian Splatting with novel radar noise modeling to enable realistic radar data synthesis and enhanced 3D reconstruction. Compared to the state-of-the-art, RadarSplat achieves superior radar image synthesis (+3.4 PSNR / 2.6x SSIM) and improved geometric reconstruction (-40% RMSE / 1.5x Accuracy), demonstrating its effectiveness in generating high-fidelity radar data and scene reconstruction. A project page is available at https://umautobots.github.io/radarsplat.
- Abstract(参考訳): 高忠実度3Dシーン再構成は、既存のデータセットから新たなデータ生成を可能にすることで、自動運転において重要な役割を果たす。
これにより、安全クリティカルなシナリオをシミュレートし、さらなるデータ収集コストを発生させずにトレーニングデータセットを拡張できる。
近年の放射界の進歩は、カメラとLiDARを用いた3次元再構成とセンサーデータ合成の有望な成果を示しているが、レーダーの可能性はほとんど解明されていない。
レーダーは、雨や霧、雪など、光学センサーがしばしば苦労する悪天候の状況において、頑丈さのために自律運転に不可欠である。
最先端のレーダベースのニューラル表現は、3D運転シーンの再構築を約束するが、レシーバ飽和やマルチパス反射を含む大きなレーダノイズのあるシナリオでは不十分である。
さらに、前処理されたノイズを除いたレーダ画像の合成に制限されており、現実的なレーダデータ合成に対処できない。
これらの制約に対処するため,ガウシアン・スプラッティングと新しいレーダノイズ・モデリングを統合し,リアルなレーダデータ合成と3次元再構成の強化を実現するRadarSplatを提案する。
最先端技術と比較すると、RadarSplatは優れたレーダー画像合成(+3.4 PSNR / 2.6x SSIM)を達成し、幾何再構成(-40%RMSE / 1.5x精度)を改善し、高忠実度レーダーデータの生成とシーン再構成の有効性を示した。
プロジェクトページはhttps://umautobots.github.io/radarsplatで公開されている。
関連論文リスト
- Simulating Automotive Radar with Lidar and Camera Inputs [14.196071603770251]
低コストのミリメートルレーダーは、自動運転車の悪天候や照明条件に対処する能力により、ますます注目を集めている。
本稿では,4次元ミリ波レーダ信号のシミュレートをカメラ画像,光検出・測光(ライダー)点雲,エゴ速度を用いて行う新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-11T05:59:43Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - TransRAD: Retentive Vision Transformer for Enhanced Radar Object Detection [6.163747364795787]
本稿では,新しい3次元レーダ物体検出モデルであるTransRADを提案する。
本研究では、ディープレーダオブジェクト検出における重複境界ボックスの共通問題を軽減するために、位置認識型NMSを提案する。
その結果,TransRADは2次元および3次元のレーダ検出タスクにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-01-29T20:21:41Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View
Radar Semantic Segmentation [21.72892413572166]
本稿では,レーダデータの多入力融合を用いたレーダシーンのセマンティックセマンティックセマンティクスへの新しいアプローチを提案する。
提案手法であるTransRadarは,CARRADAとRADIalのデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-03T17:59:05Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。