論文の概要: RLCNet: An end-to-end deep learning framework for simultaneous online calibration of LiDAR, RADAR, and Camera
- arxiv url: http://arxiv.org/abs/2512.08262v1
- Date: Tue, 09 Dec 2025 05:38:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.822867
- Title: RLCNet: An end-to-end deep learning framework for simultaneous online calibration of LiDAR, RADAR, and Camera
- Title(参考訳): RLCNet: LiDAR, RADAR, Cameraの同時オンライン校正のためのエンドツーエンドディープラーニングフレームワーク
- Authors: Hafeez Husain Cholakkal, Stefano Arrigoni, Francesco Braghin,
- Abstract要約: 本稿では,LiDAR,RADAR,カメラセンサのオンライン校正を同時に行うための,エンドツーエンドのトレーニング可能な新しいディープラーニングフレームワークであるRCCNetを提案する。
重み付けされた移動平均と外れ値の拒絶を組み込んだオンラインキャリブレーションフレームワークを導入し、キャリブレーションパラメータの動的調整を可能にする。
一方,既存手法との比較では,提案手法の精度とロバスト性に優れていた。
- 参考スコア(独自算出の注目度): 2.825460805162022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate extrinsic calibration of LiDAR, RADAR, and camera sensors is essential for reliable perception in autonomous vehicles. Still, it remains challenging due to factors such as mechanical vibrations and cumulative sensor drift in dynamic environments. This paper presents RLCNet, a novel end-to-end trainable deep learning framework for the simultaneous online calibration of these multimodal sensors. Validated on real-world datasets, RLCNet is designed for practical deployment and demonstrates robust performance under diverse conditions. To support real-time operation, an online calibration framework is introduced that incorporates a weighted moving average and outlier rejection, enabling dynamic adjustment of calibration parameters with reduced prediction noise and improved resilience to drift. An ablation study highlights the significance of architectural choices, while comparisons with existing methods demonstrate the superior accuracy and robustness of the proposed approach.
- Abstract(参考訳): LiDAR、RADAR、カメラセンサーの正確な外部キャリブレーションは、自動運転車における信頼性の高い認識に不可欠である。
しかし、力学振動や累積センサドリフトなどの動的環境における要因により、依然として困難である。
本稿では,これらのマルチモーダルセンサのオンライン校正を同時に行うための,エンドツーエンドのトレーニング可能な新しいディープラーニングフレームワークであるRCCNetを提案する。
実世界のデータセットで検証されたRCCNetは、実用的なデプロイメント用に設計されており、多様な条件下での堅牢なパフォーマンスを示している。
リアルタイム動作を支援するために、重み付けされた移動平均と降圧拒絶を組み込んだオンラインキャリブレーションフレームワークを導入し、予測ノイズの低減によるキャリブレーションパラメータの動的調整と、ドリフトに対するレジリエンスの向上を実現した。
一方,既存手法との比較では,提案手法の精度とロバスト性に優れていた。
関連論文リスト
- DST-Calib: A Dual-Path, Self-Supervised, Target-Free LiDAR-Camera Extrinsic Calibration Network [57.22935789233992]
本稿では,オンライン方式で動作するLiDARカメラ外装キャリブレーションネットワークについて紹介する。
提案手法は,一般化可能性の観点から既存手法を著しく上回っている。
論文 参考訳(メタデータ) (2026-01-03T13:57:01Z) - Resource-Efficient Beam Prediction in mmWave Communications with Multimodal Realistic Simulation Framework [57.994965436344195]
ビームフォーミングは、方向と強度を最適化して信号伝送を改善するミリ波通信において重要な技術である。
マルチモーダルセンシング支援ビーム予測は,ユーザ位置やネットワーク条件を予測するために,さまざまなセンサデータを使用して注目されている。
その有望な可能性にもかかわらず、マルチモーダルセンシング支援ビーム予測の採用は、高い計算複雑性、高いコスト、限られたデータセットによって妨げられている。
論文 参考訳(メタデータ) (2025-04-07T15:38:25Z) - Cal or No Cal? -- Real-Time Miscalibration Detection of LiDAR and Camera Sensors [0.8437187555622164]
安全の観点からは、センサーのキャリブレーションは自動運転の鍵となる。
オンラインキャリブレーションは厳格なリアルタイムとリソースの制約を受ける。
校正パラメータの直接回帰から校正状態のバイナリ分類に焦点を移す誤校正検出フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-31T08:13:23Z) - CalibRefine: Deep Learning-Based Online Automatic Targetless LiDAR-Camera Calibration with Iterative and Attention-Driven Post-Refinement [7.736775961390864]
CalibRefineは完全に自動化され、ターゲットレス、オンラインキャリブレーションフレームワークである。
生のLiDAR点雲とカメラ画像を直接処理する。
以上の結果から,頑健なオブジェクトレベルの特徴マッチングと反復的改善と自己監督的注意に基づく改善が組み合わさって,信頼性の高いセンサアライメントを実現することが示唆された。
論文 参考訳(メタデータ) (2025-02-24T20:53:42Z) - What Really Matters for Learning-based LiDAR-Camera Calibration [50.2608502974106]
本稿では,学習に基づくLiDAR-Cameraキャリブレーションの開発を再考する。
我々は、広く使われているデータ生成パイプラインによる回帰ベースの手法の限界を識別する。
また,入力データ形式と前処理操作がネットワーク性能に与える影響についても検討する。
論文 参考訳(メタデータ) (2025-01-28T14:12:32Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [53.58528891081709]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - A re-calibration method for object detection with multi-modal alignment bias in autonomous driving [6.672552664633057]
自律走行における多モード物体検出は、異なるセンサからの補完情報を融合させることにより、大きなブレークスルーを達成した。
LiDARやカメラなどのセンサーとの融合の校正は、以前の研究で常に正確であるはずだった。
実際には、キャリブレーション行列は車両が工場を出る際に固定されるが、機械的振動、道路の隆起、データラグはキャリブレーションバイアスを引き起こす可能性がある。
論文 参考訳(メタデータ) (2024-05-27T05:46:37Z) - RobustCalib: Robust Lidar-Camera Extrinsic Calibration with Consistency
Learning [42.90987864456673]
LiDARカメラ外部推定の現在の手法は、オフラインの目標と人間の努力に依存している。
本稿では,外因性キャリブレーション問題に頑健で自動的で単発的な方法で対処する新しい手法を提案する。
我々は,異なるデータセットの総合的な実験を行い,本手法が正確かつ堅牢な性能を実現することを示す。
論文 参考訳(メタデータ) (2023-12-02T09:29:50Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Spatiotemporal Camera-LiDAR Calibration: A Targetless and Structureless
Approach [32.15405927679048]
ターゲットレスで構造のないカメラ-DARキャリブレーション法を提案する。
本手法は, 時間的パラメータの初期調整を必要としないような, 閉形式解と非構造束を結合する。
提案手法の精度とロバスト性をシミュレーションおよび実データ実験により実証する。
論文 参考訳(メタデータ) (2020-01-17T07:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。