論文の概要: RF4D:Neural Radar Fields for Novel View Synthesis in Outdoor Dynamic Scenes
- arxiv url: http://arxiv.org/abs/2505.20967v1
- Date: Tue, 27 May 2025 09:59:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.564131
- Title: RF4D:Neural Radar Fields for Novel View Synthesis in Outdoor Dynamic Scenes
- Title(参考訳): RF4D:屋外ダイナミックシーンにおける新しい視点合成のためのニューラルレーダ場
- Authors: Jiarui Zhang, Zhihao Li, Chong Wang, Bihan Wen,
- Abstract要約: 本研究では,屋外のダイナミックシーンにおける新しいビュー合成を目的としたレーダーベースニューラルネットワークフレームワークRF4Dを紹介する。
RF4Dはその表現に時間情報を明示的に組み込んでおり、動く物体をモデル化する能力を大幅に強化している。
本稿では,レーダセンシング物理と密接に一致したレーダ固有のパワーレンダリングを提案し,合成精度と相互運用性を改善した。
- 参考スコア(独自算出の注目度): 29.29392488894727
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural fields (NFs) have demonstrated remarkable performance in scene reconstruction, powering various tasks such as novel view synthesis. However, existing NF methods relying on RGB or LiDAR inputs often exhibit severe fragility to adverse weather, particularly when applied in outdoor scenarios like autonomous driving. In contrast, millimeter-wave radar is inherently robust to environmental changes, while unfortunately, its integration with NFs remains largely underexplored. Besides, as outdoor driving scenarios frequently involve moving objects, making spatiotemporal modeling essential for temporally consistent novel view synthesis. To this end, we introduce RF4D, a radar-based neural field framework specifically designed for novel view synthesis in outdoor dynamic scenes. RF4D explicitly incorporates temporal information into its representation, significantly enhancing its capability to model moving objects. We further introduce a feature-level flow module that predicts latent temporal offsets between adjacent frames, enforcing temporal coherence in dynamic scene modeling. Moreover, we propose a radar-specific power rendering formulation closely aligned with radar sensing physics, improving synthesis accuracy and interoperability. Extensive experiments on public radar datasets demonstrate the superior performance of RF4D in terms of radar measurement synthesis quality and occupancy estimation accuracy, achieving especially pronounced improvements in dynamic outdoor scenarios.
- Abstract(参考訳): ニューラルフィールド(NF)はシーン再構成において顕著な性能を示し、新規なビュー合成などの様々なタスクに力を入れている。
しかしながら、既存のNF法はRGBやLiDARの入力に依存しており、特に自動運転のような屋外のシナリオに適用した場合、悪天候に対して深刻な脆弱性を示すことが多い。
対照的に、ミリ波レーダーは本質的に環境変化に対して堅牢であるが、残念なことにNFsとの統合は未調査のままである。
さらに、屋外の運転シナリオは、しばしば移動物体を含むため、時空間モデリングは、時間的に一貫した新しい視点合成に不可欠である。
この目的のために、屋外のダイナミックシーンにおける新しいビュー合成のために設計されたレーダーベースのニューラルネットワークフレームワークRF4Dを紹介する。
RF4Dはその表現に時間情報を明示的に組み込んでおり、動く物体をモデル化する能力を大幅に強化している。
さらに,隣接フレーム間の潜時相オフセットを予測し,動的シーンモデリングにおいて時間的コヒーレンスを強制する特徴レベルフローモジュールを導入する。
さらに,レーダセンサ物理と密に整合したレーダ固有のパワーレンダリング式を提案し,合成精度と相互運用性を改善した。
公共レーダデータセットに関する大規模な実験は、レーダー計測の合成品質と占有率推定精度の観点から、RF4Dの優れた性能を示し、特に屋外の動的シナリオにおいて顕著な改善を実現している。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Lightning NeRF: Efficient Hybrid Scene Representation for Autonomous
Driving [28.788240489289212]
Lightning NeRFは、自動運転シナリオにおいて、LiDAR以前の幾何学を効果的に活用する効率的なハイブリッドシーン表現である。
これは、NeRFの新規なビュー合成性能を大幅に改善し、計算オーバーヘッドを低減する。
提案手法は,トレーニング速度の5倍,レンダリング速度の10倍向上を実現する。
論文 参考訳(メタデータ) (2024-03-09T13:14:27Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - HarmonicNeRF: Geometry-Informed Synthetic View Augmentation for 3D Scene Reconstruction in Driving Scenarios [2.949710700293865]
HarmonicNeRFは、屋外の自己監督型単分子シーン再構築のための新しいアプローチである。
形状インフォームド合成ビューで入力空間を拡大することにより、NeRFの強度を生かし、表面再構成精度を高める。
提案手法は,新しい深度ビューを合成し,シーンを再構築するための新しいベンチマークを確立し,既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-09T07:42:33Z) - Fast Dynamic Radiance Fields with Time-Aware Neural Voxels [106.69049089979433]
タイムアウェアなボクセル特徴を持つシーンを表現し,TiNeuVoxという名前のラジアンスフィールドフレームワークを提案する。
我々のフレームワークは、高いレンダリング品質を維持しながら、動的ラディアンスフィールドの最適化を加速する。
TiNeuVoxは8分と8MBのストレージでトレーニングを完了しています。
論文 参考訳(メタデータ) (2022-05-30T17:47:31Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。