論文の概要: RAVES-Calib: Robust, Accurate and Versatile Extrinsic Self Calibration Using Optimal Geometric Features
- arxiv url: http://arxiv.org/abs/2512.08170v1
- Date: Tue, 09 Dec 2025 01:58:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.783047
- Title: RAVES-Calib: Robust, Accurate and Versatile Extrinsic Self Calibration Using Optimal Geometric Features
- Title(参考訳): RAVES-Calib: 最適幾何学的特徴を用いたロバスト, 高精度, 垂直的自己校正
- Authors: Haoxin Zhang, Shuaixin Li, Xiaozhou Zhu, Hongbo Chen, Wen Yao,
- Abstract要約: ユーザフレンドリーなLiDARカメラキャリブレーションツールキットを提案する。
我々はGluestickパイプラインを用いて、2D-3Dの点と線の特徴対応を確立し、頑健で自動的な初期推定を行う。
室内および屋外の両方で様々なLiDARカメラセンサを用いた広範囲な実験により,本手法の有効性を確認した。
- 参考スコア(独自算出の注目度): 14.8633557782249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a user-friendly LiDAR-camera calibration toolkit that is compatible with various LiDAR and camera sensors and requires only a single pair of laser points and a camera image in targetless environments. Our approach eliminates the need for an initial transform and remains robust even with large positional and rotational LiDAR-camera extrinsic parameters. We employ the Gluestick pipeline to establish 2D-3D point and line feature correspondences for a robust and automatic initial guess. To enhance accuracy, we quantitatively analyze the impact of feature distribution on calibration results and adaptively weight the cost of each feature based on these metrics. As a result, extrinsic parameters are optimized by filtering out the adverse effects of inferior features. We validated our method through extensive experiments across various LiDAR-camera sensors in both indoor and outdoor settings. The results demonstrate that our method provides superior robustness and accuracy compared to SOTA techniques. Our code is open-sourced on GitHub to benefit the community.
- Abstract(参考訳): 本稿では,LiDARやカメラセンサと互換性のあるユーザフレンドリーなLiDARカメラキャリブレーションツールキットを提案する。
提案手法は初期変換の必要性を排除し,LiDARカメラの外部パラメータが大きくても頑健である。
我々はGluestickパイプラインを用いて、2D-3Dの点と線の特徴対応を確立し、頑健で自動的な初期推定を行う。
精度を高めるため、キャリブレーション結果に対する特徴分布の影響を定量的に分析し、これらの指標に基づいて各特徴のコストを適応的に重み付けする。
その結果、外因性パラメータは、劣悪な特徴の悪影響をフィルタリングすることによって最適化される。
室内および屋外の両方で様々なLiDARカメラセンサを用いた広範囲な実験により,本手法の有効性を確認した。
その結果,本手法はSOTA法と比較して頑健さと精度が優れていることがわかった。
私たちのコードは、コミュニティに利益をもたらすために、GitHubでオープンソース化されています。
関連論文リスト
- Targetless LiDAR-Camera Calibration with Neural Gaussian Splatting [28.41267004945046]
本稿では,ニューラルベースガウス表現と協調してセンサポーズを最適化するTLC(Targetless LiDAR scene)を提案する。
光度および幾何正則化による完全微分可能なパイプラインは、ロバストで一般化可能なキャリブレーションを実現する。
論文 参考訳(メタデータ) (2025-04-06T20:00:01Z) - UniCalib: Targetless LiDAR-Camera Calibration via Probabilistic Flow on Unified Depth Representations [30.56092814783138]
DF-Calibは, キャリブレーションをモード内深さ流量推定問題として再構成するLiDARカメラキャリブレーション法である。
DF-Calibは、カメラ画像から深度マップを推定し、疎LiDAR投影深度マップを完成させる。
本稿では,有効画素を優先する信頼性マップを導入し,深度フロー推定の精度を高めるために,知覚的に重み付けされたスパースフロー損失を提案する。
論文 参考訳(メタデータ) (2025-04-02T07:09:44Z) - Robust LiDAR-Camera Calibration with 2D Gaussian Splatting [0.3281128493853064]
LiDARとカメラデータを統合するための重要な最初のステップは、LiDARカメラシステムの校正である。
既存のキャリブレーション手法の多くは、複雑な手動操作を含む補助対象オブジェクトに依存している。
幾何学的制約を用いたLiDARカメラの外部パラメータを推定するキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2025-04-01T08:19:26Z) - P2O-Calib: Camera-LiDAR Calibration Using Point-Pair Spatial Occlusion
Relationship [1.6921147361216515]
本研究では,3次元空間における閉塞関係を用いた2次元3次元エッジポイント抽出に基づく新たなターゲットレスキャリブレーション手法を提案する。
本手法は,高画質カメラ-LiDARキャリブレーションによる実用的応用に寄与する,低誤差かつ高ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-11-04T14:32:55Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - LIF-Seg: LiDAR and Camera Image Fusion for 3D LiDAR Semantic
Segmentation [78.74202673902303]
本稿では,LiDAR分割のための粗大なLiDARとカメラフュージョンベースネットワーク(LIF-Seg)を提案する。
提案手法は,画像の文脈情報を完全に活用し,単純だが効果的な早期融合戦略を導入する。
これら2つのコンポーネントの協力により、効果的なカメラ-LiDAR融合が成功する。
論文 参考訳(メタデータ) (2021-08-17T08:53:11Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。