論文の概要: RaCalNet: Radar Calibration Network for Sparse-Supervised Metric Depth Estimation
- arxiv url: http://arxiv.org/abs/2506.15560v1
- Date: Wed, 18 Jun 2025 15:35:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.719198
- Title: RaCalNet: Radar Calibration Network for Sparse-Supervised Metric Depth Estimation
- Title(参考訳): RaCalNet: Sparse-Supervised Metric Depth Estimationのためのレーダ校正ネットワーク
- Authors: Xingrui Qin, Wentao Zhao, Chuan Cao, Yihe Niu, Houcheng Jiang, Jingchuan Wang,
- Abstract要約: RaCalNetは、希薄なLiDARを使用して洗練されたレーダー測定の学習を監督することにより、密集した監視の必要性を排除する新しいフレームワークである。
RaCalNetは、まずスパースレーダーポイントを再検討し、精査し、正確な深度事前を構築する。
これらの先行は、信頼性の高いアンカーとして単眼深度予測を導出し、密集した監督に頼らずにメートル法スケールの推定を可能にする。
- 参考スコア(独自算出の注目度): 6.494782266928409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dense metric depth estimation using millimeter-wave radar typically requires dense LiDAR supervision, generated via multi-frame projection and interpolation, to guide the learning of accurate depth from sparse radar measurements and RGB images. However, this paradigm is both costly and data-intensive. To address this, we propose RaCalNet, a novel framework that eliminates the need for dense supervision by using sparse LiDAR to supervise the learning of refined radar measurements, resulting in a supervision density of merely around 1% compared to dense-supervised methods. Unlike previous approaches that associate radar points with broad image regions and rely heavily on dense labels, RaCalNet first recalibrates and refines sparse radar points to construct accurate depth priors. These priors then serve as reliable anchors to guide monocular depth prediction, enabling metric-scale estimation without resorting to dense supervision. This design improves structural consistency and preserves fine details. Despite relying solely on sparse supervision, RaCalNet surpasses state-of-the-art dense-supervised methods, producing depth maps with clear object contours and fine-grained textures. Extensive experiments on the ZJU-4DRadarCam dataset and real-world deployment scenarios demonstrate its effectiveness, reducing RMSE by 35.30% and 34.89%, respectively.
- Abstract(参考訳): ミリ波レーダを用いた高密度距離推定には、多フレーム投影と補間によって発生する密集したLiDAR監督が必要であり、スパースレーダ計測とRGB画像から正確な深さの学習を導く。
しかし、このパラダイムはコストが高く、データ集約的です。
そこで本研究では,高密度監視手法と比較して,高度レーダー計測の学習を監督するために疎LiDARを用いることで,高密度監視の必要性を解消する新しいフレームワークであるRaCalNetを提案する。
レーダポイントを広い画像領域に関連付け、密度の高いラベルに強く依存する従来のアプローチとは異なり、RaCalNetはまず、粗いレーダポイントを校正し、精査し、正確な深度事前を構築する。
これらの先行は、信頼性の高いアンカーとして単眼深度予測を導出し、密集した監督に頼らずにメートル法スケールの推定を可能にする。
この設計は構造的整合性を改善し、細部を保存する。
RaCalNetはスパース監視のみに頼っているが、最先端の密集監視手法を超越し、透明な物体の輪郭ときめ細かいテクスチャを持つ深度マップを生成する。
ZJU-4DRadarCamデータセットと実世界の展開シナリオに関する大規模な実験では、RMSEをそれぞれ35.30%削減し、34.89%削減した。
関連論文リスト
- TacoDepth: Towards Efficient Radar-Camera Depth Estimation with One-stage Fusion [54.46664104437454]
一段核融合を用いた効率的かつ正確なレーダ・カメラ深度推定モデルであるTacoDepthを提案する。
具体的には、グラフベースのRadar構造抽出器とピラミッドベースのRadar融合モジュールを設計する。
従来の最先端のアプローチと比較して、TacoDepthは深さ精度と処理速度を12.8%、91.8%改善している。
論文 参考訳(メタデータ) (2025-04-16T05:25:04Z) - Uncertainty-guided Optimal Transport in Depth Supervised Sparse-View 3D Gaussian [49.21866794516328]
3次元ガウシアンスプラッティングは、リアルタイムな新規ビュー合成において顕著な性能を示した。
これまでのアプローチでは、3Dガウスの訓練に奥行き監視を取り入れ、オーバーフィッティングを軽減してきた。
本研究では,3次元ガウスの深度分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:18:30Z) - RIDERS: Radar-Infrared Depth Estimation for Robust Sensing [22.10378524682712]
逆気象条件は正確な深度推定に重大な課題をもたらす。
本研究では,ミリ波レーダと単眼赤外線サーマルカメラを融合させて,ロバストな距離推定手法を提案する。
本手法は、曖昧さと不一致の課題に対処することにより、異常な視覚的品質と正確な計量推定を実現する。
論文 参考訳(メタデータ) (2024-02-03T07:14:43Z) - RadarCam-Depth: Radar-Camera Fusion for Depth Estimation with Learned Metric Scale [21.09258172290667]
本稿では, 単視点画像とスパース, ノイズの多いレーダー点雲の融合に基づく, 距離密度推定のための新しい手法を提案する。
提案手法は,難解なnuScenesデータセットと自己コンパイルしたZJU-4DRadarCamデータセットにおいて,平均絶対誤差(MAE)を25.6%,40.2%削減することにより,最先端のRadar-Camera深度推定法を著しく上回っている。
論文 参考訳(メタデータ) (2024-01-09T02:40:03Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Sparse Beats Dense: Rethinking Supervision in Radar-Camera Depth Completion [18.0877558432168]
本稿では,従来の高密度LiDAR監督法を精度と速度の両方で上回る,疎LiDAR監督法を提案する。
また, 粗いLiDAR監督下では, 重要ストライプ状アーティファクトを含む深度マップを出力することが多い。
本研究のフレームワークは,平均絶対誤差(MAE)が11.6%,フレームパー秒(FPS)が1.6倍向上し,最先端の高密度監視手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-01T06:04:49Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Depth Estimation from Monocular Images and Sparse radar using Deep
Ordinal Regression Network [2.0446891814677692]
我々は, スパースレーダデータを単眼深度推定モデルに統合し, レーダによって提供されるスパースネスと限られた視野を減らすための新しい前処理手法を提案する。
本稿では,Fuらによる深度回帰ネットワークに基づく深度学習を用いて,単眼2次元画像から高密度深度マップを推定する手法を提案する。
論文 参考訳(メタデータ) (2021-07-15T20:17:48Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。