論文の概要: Super4DR: 4D Radar-centric Self-supervised Odometry and Gaussian-based Map Optimization
- arxiv url: http://arxiv.org/abs/2512.09608v1
- Date: Wed, 10 Dec 2025 12:55:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.260004
- Title: Super4DR: 4D Radar-centric Self-supervised Odometry and Gaussian-based Map Optimization
- Title(参考訳): Super4DR: 4次元レーダー中心型自己監督オドメトリーとガウスマップ最適化
- Authors: Zhiheng Li, Weihua Wang, Qiang Shen, Yichen Zhao, Zheng Fang,
- Abstract要約: そこで我々は,4次元レーダー中心のフレームワークであるSuper4DRを提案する。
Super4DRは、従来の自己監督手法よりも67%の性能向上を実現し、オードメトリーとほぼ一致し、LiDARとの地図品質格差を狭める。
実験の結果,Super4DRは従来の自己監督法に比べて67%の性能向上を達成し,オードメトリーとほぼ一致し,LiDARとの地図品質格差を狭めることがわかった。
- 参考スコア(独自算出の注目度): 13.79944715452315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional SLAM systems using visual or LiDAR data often struggle in poor lighting and severe weather. Although 4D radar is suited for such environments, its sparse and noisy point clouds hinder accurate odometry estimation, while the radar maps suffer from obscure and incomplete structures. Thus, we propose Super4DR, a 4D radar-centric framework for learning-based odometry estimation and gaussian-based map optimization. First, we design a cluster-aware odometry network that incorporates object-level cues from the clustered radar points for inter-frame matching, alongside a hierarchical self-supervision mechanism to overcome outliers through spatio-temporal consistency, knowledge transfer, and feature contrast. Second, we propose using 3D gaussians as an intermediate representation, coupled with a radar-specific growth strategy, selective separation, and multi-view regularization, to recover blurry map areas and those undetected based on image texture. Experiments show that Super4DR achieves a 67% performance gain over prior self-supervised methods, nearly matches supervised odometry, and narrows the map quality disparity with LiDAR while enabling multi-modal image rendering.
- Abstract(参考訳): 視覚的またはLiDARデータを用いた従来のSLAMシステムは、照明の悪さと厳しい天候に悩まされることが多い。
4Dレーダーはこのような環境に適しているが、希少でノイズの多い点雲は正確なドメトリー推定を妨げ、レーダーマップは不完全で不完全な構造に悩まされている。
そこで本研究では,学習に基づく計測とガウスに基づく地図最適化のための4次元レーダー中心のフレームワークであるSuper4DRを提案する。
まず,クラスタ化されたレーダポイントからのオブジェクトレベルキューをフレーム間マッチングに組み込んだクラスタ対応オドメトリーネットワークを設計し,時空間整合性,知識伝達,特徴コントラストを通じてアウトリーを克服する階層的自己超越機構を設計する。
次に,3次元ガウスアンを中間表現として用い,レーダ固有の成長戦略,選択的分離,多視点正規化と組み合わせて,画像テクスチャに基づくぼやけた地図領域と検出されていないものを復元する手法を提案する。
実験の結果、Super4DRは従来の自己監督手法よりも67%の性能向上を実現し、教師付きオードメトリーとほぼ一致し、マルチモーダル画像レンダリングを実現しつつ、LiDARとの地図品質格差を狭めることがわかった。
関連論文リスト
- RadarGen: Automotive Radar Point Cloud Generation from Cameras [64.69976771710057]
マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、鳥の目視でレーダー計測を表現することで、レーダ領域への効率的な画像遅延拡散を適応する。
本稿では,RadarGenが特徴的レーダ計測分布を捕捉し,実データに基づいて学習した知覚モデルとのギャップを小さくすることを示す。
論文 参考訳(メタデータ) (2025-12-19T18:57:33Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - V2X-R: Cooperative LiDAR-4D Radar Fusion with Denoising Diffusion for 3D Object Detection [64.93675471780209]
我々は、LiDAR、カメラ、および4Dレーダを取り入れた初のシミュレーションV2XデータセットであるV2X-Rを提案する。
V2X-Rには12,079のシナリオがあり、LiDARと4Dレーダーポイント雲の37,727フレーム、150,908の画像、170,859の注釈付き3D車両バウンディングボックスがある。
本稿では,3次元物体検出のための新しいコラボレーティブLiDAR-4Dレーダ融合パイプラインを提案し,様々な融合戦略を用いて実装する。
論文 参考訳(メタデータ) (2024-11-13T07:41:47Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - 4DRVO-Net: Deep 4D Radar-Visual Odometry Using Multi-Modal and
Multi-Scale Adaptive Fusion [2.911052912709637]
4次元(4D)レーダー-視覚計測(4DRVO)は4次元レーダーとカメラの補完情報を統合している。
4DRVOは4Dレーダーポイント雲の空隙による追跡誤差が顕著である可能性がある。
本稿では,4次元レーダ・ビジュアル・オドメトリーの手法である4DRVO-Netを提案する。
論文 参考訳(メタデータ) (2023-08-12T14:00:09Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。