論文の概要: RaCalNet: Radar Calibration Network for Sparse-Supervised Metric Depth Estimation
- arxiv url: http://arxiv.org/abs/2506.15560v2
- Date: Sat, 05 Jul 2025 14:04:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 17:51:39.991737
- Title: RaCalNet: Radar Calibration Network for Sparse-Supervised Metric Depth Estimation
- Title(参考訳): RaCalNet: Sparse-Supervised Metric Depth Estimationのためのレーダ校正ネットワーク
- Authors: Xingrui Qin, Wentao Zhao, Chuan Cao, Yihe Niu, Tianchen Deng, Houcheng Jiang, Rui Guo, Jingchuan Wang,
- Abstract要約: RaCalNetは、希薄なLiDARを使用して洗練されたレーダー測定の学習を監督することにより、密集した監視の必要性を排除する新しいフレームワークである。
RaCalNetは、透明な物体の輪郭ときめ細かいテクスチャを持つ深度マップを作成し、最先端の密教師付き手法に比べて優れた視覚的品質を示す。
- 参考スコア(独自算出の注目度): 14.466573808593887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dense depth estimation using millimeter-wave radar typically requires dense LiDAR supervision, generated via multi-frame projection and interpolation, for guiding the learning of accurate depth from sparse radar measurements and RGB images. However, this paradigm is both costly and data-intensive. To address this, we propose RaCalNet, a novel framework that eliminates the need for dense supervision by using sparse LiDAR to supervise the learning of refined radar measurements, resulting in a supervision density of merely around 1\% compared to dense-supervised methods. RaCalNet is composed of two key modules. The Radar Recalibration module performs radar point screening and pixel-wise displacement refinement, producing accurate and reliable depth priors from sparse radar inputs. These priors are then used by the Metric Depth Optimization module, which learns to infer scene-level scale priors and fuses them with monocular depth predictions to achieve metrically accurate outputs. This modular design enhances structural consistency and preserves fine-grained geometric details. Despite relying solely on sparse supervision, RaCalNet produces depth maps with clear object contours and fine-grained textures, demonstrating superior visual quality compared to state-of-the-art dense-supervised methods. Quantitatively, it achieves performance comparable to existing methods on the ZJU-4DRadarCam dataset and yields a 34.89\% RMSE reduction in real-world deployment scenarios. We plan to gradually release the code and models in the future at https://github.com/818slam/RaCalNet.git.
- Abstract(参考訳): ミリ波レーダを用いた深度推定には、スパルスレーダ計測とRGB画像から正確な深度を学習するための多フレーム投影と補間によって生成される密集したLiDAR監督が必要である。
しかし、このパラダイムはコストが高く、データ集約的です。
そこで本研究では,高密度監視手法に比べて1倍程度の監督密度を達成できる新しいフレームワークであるRaCalNetを提案する。
RaCalNetは2つの重要なモジュールで構成されている。
Radar Recalibrationモジュールはレーダーポイントスクリーニングとピクセル単位の変位補正を行い、スパースレーダ入力から正確で信頼性の高い深度を発生させる。
これらのプリエントはMetric Depth Optimizationモジュールによって使用され、シーンレベルのスケールのプリエントを推測し、モノクロ深度予測でそれらを融合させ、メートル法的に正確な出力を達成する。
このモジュラーデザインは構造的整合性を高め、きめ細かい幾何学的詳細を保存する。
RaCalNetはスパース監視のみに頼っているにもかかわらず、透明な物体の輪郭ときめ細かいテクスチャを持つ深度マップを製造し、最先端の密集教師方式に比べて優れた視覚的品質を示している。
定量的には、ZJU-4DRadarCamデータセット上の既存のメソッドに匹敵するパフォーマンスを達成し、実際のデプロイメントシナリオにおいて34.89\%のRMSE還元を達成している。
将来、コードとモデルをhttps://github.com/818slam/RaCalNet.git.comで徐々にリリースする予定です。
関連論文リスト
- TacoDepth: Towards Efficient Radar-Camera Depth Estimation with One-stage Fusion [54.46664104437454]
一段核融合を用いた効率的かつ正確なレーダ・カメラ深度推定モデルであるTacoDepthを提案する。
具体的には、グラフベースのRadar構造抽出器とピラミッドベースのRadar融合モジュールを設計する。
従来の最先端のアプローチと比較して、TacoDepthは深さ精度と処理速度を12.8%、91.8%改善している。
論文 参考訳(メタデータ) (2025-04-16T05:25:04Z) - Uncertainty-guided Optimal Transport in Depth Supervised Sparse-View 3D Gaussian [49.21866794516328]
3次元ガウシアンスプラッティングは、リアルタイムな新規ビュー合成において顕著な性能を示した。
これまでのアプローチでは、3Dガウスの訓練に奥行き監視を取り入れ、オーバーフィッティングを軽減してきた。
本研究では,3次元ガウスの深度分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:18:30Z) - RIDERS: Radar-Infrared Depth Estimation for Robust Sensing [22.10378524682712]
逆気象条件は正確な深度推定に重大な課題をもたらす。
本研究では,ミリ波レーダと単眼赤外線サーマルカメラを融合させて,ロバストな距離推定手法を提案する。
本手法は、曖昧さと不一致の課題に対処することにより、異常な視覚的品質と正確な計量推定を実現する。
論文 参考訳(メタデータ) (2024-02-03T07:14:43Z) - RadarCam-Depth: Radar-Camera Fusion for Depth Estimation with Learned Metric Scale [21.09258172290667]
本稿では, 単視点画像とスパース, ノイズの多いレーダー点雲の融合に基づく, 距離密度推定のための新しい手法を提案する。
提案手法は,難解なnuScenesデータセットと自己コンパイルしたZJU-4DRadarCamデータセットにおいて,平均絶対誤差(MAE)を25.6%,40.2%削減することにより,最先端のRadar-Camera深度推定法を著しく上回っている。
論文 参考訳(メタデータ) (2024-01-09T02:40:03Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Sparse Beats Dense: Rethinking Supervision in Radar-Camera Depth Completion [18.0877558432168]
本稿では,従来の高密度LiDAR監督法を精度と速度の両方で上回る,疎LiDAR監督法を提案する。
また, 粗いLiDAR監督下では, 重要ストライプ状アーティファクトを含む深度マップを出力することが多い。
本研究のフレームワークは,平均絶対誤差(MAE)が11.6%,フレームパー秒(FPS)が1.6倍向上し,最先端の高密度監視手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-01T06:04:49Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Depth Estimation from Monocular Images and Sparse radar using Deep
Ordinal Regression Network [2.0446891814677692]
我々は, スパースレーダデータを単眼深度推定モデルに統合し, レーダによって提供されるスパースネスと限られた視野を減らすための新しい前処理手法を提案する。
本稿では,Fuらによる深度回帰ネットワークに基づく深度学習を用いて,単眼2次元画像から高密度深度マップを推定する手法を提案する。
論文 参考訳(メタデータ) (2021-07-15T20:17:48Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。