論文の概要: Robust LiDAR-Camera Calibration with 2D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2504.00525v1
- Date: Tue, 01 Apr 2025 08:19:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:19:42.952513
- Title: Robust LiDAR-Camera Calibration with 2D Gaussian Splatting
- Title(参考訳): 2次元ガウス法によるロバストLiDAR-Cameraキャリブレーション
- Authors: Shuyi Zhou, Shuxiang Xie, Ryoichi Ishikawa, Takeshi Oishi,
- Abstract要約: LiDARとカメラデータを統合するための重要な最初のステップは、LiDARカメラシステムの校正である。
既存のキャリブレーション手法の多くは、複雑な手動操作を含む補助対象オブジェクトに依存している。
幾何学的制約を用いたLiDARカメラの外部パラメータを推定するキャリブレーション手法を提案する。
- 参考スコア(独自算出の注目度): 0.3281128493853064
- License:
- Abstract: LiDAR-camera systems have become increasingly popular in robotics recently. A critical and initial step in integrating the LiDAR and camera data is the calibration of the LiDAR-camera system. Most existing calibration methods rely on auxiliary target objects, which often involve complex manual operations, whereas targetless methods have yet to achieve practical effectiveness. Recognizing that 2D Gaussian Splatting (2DGS) can reconstruct geometric information from camera image sequences, we propose a calibration method that estimates LiDAR-camera extrinsic parameters using geometric constraints. The proposed method begins by reconstructing colorless 2DGS using LiDAR point clouds. Subsequently, we update the colors of the Gaussian splats by minimizing the photometric loss. The extrinsic parameters are optimized during this process. Additionally, we address the limitations of the photometric loss by incorporating the reprojection and triangulation losses, thereby enhancing the calibration robustness and accuracy.
- Abstract(参考訳): LiDARカメラシステムは、最近ロボット工学で人気が高まっている。
LiDARとカメラデータを統合するための重要な最初のステップは、LiDARカメラシステムの校正である。
既存のキャリブレーション手法の多くは、複雑な手動操作を伴う補助対象オブジェクトに依存しているが、ターゲットレス手法はまだ実用的効果が得られていない。
2次元ガウス散乱(2DGS)がカメラ画像列から幾何情報を再構成できることを認識し、幾何学的制約を用いてLiDARカメラ外在パラメータを推定するキャリブレーション法を提案する。
提案手法は,LiDAR点雲を用いた無色2DGSの再構成から始める。
次に,光量損失を最小限に抑えることで,ガウススプラットの色を更新する。
外部パラメータはこのプロセス中に最適化される。
さらに、再投射と三角損失を組み込むことにより、光度損失の限界に対処し、キャリブレーションの堅牢性と精度を向上させる。
関連論文リスト
- What Really Matters for Learning-based LiDAR-Camera Calibration [50.2608502974106]
本稿では,学習に基づくLiDAR-Cameraキャリブレーションの開発を再考する。
我々は、広く使われているデータ生成パイプラインによる回帰ベースの手法の限界を識別する。
また,入力データ形式と前処理操作がネットワーク性能に与える影響についても検討する。
論文 参考訳(メタデータ) (2025-01-28T14:12:32Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - YOCO: You Only Calibrate Once for Accurate Extrinsic Parameter in LiDAR-Camera Systems [0.5999777817331317]
カメラとLiDARからなるマルチセンサー融合システムでは、正確な外部キャリブレーションがシステムの長期的な安定性と環境の正確な認識に寄与する。
本稿では,LiDARカメラシステムにおいて,対応点登録の必要性を回避するための完全自動外部校正手法を提案する。
論文 参考訳(メタデータ) (2024-07-25T13:44:49Z) - P2O-Calib: Camera-LiDAR Calibration Using Point-Pair Spatial Occlusion
Relationship [1.6921147361216515]
本研究では,3次元空間における閉塞関係を用いた2次元3次元エッジポイント抽出に基づく新たなターゲットレスキャリブレーション手法を提案する。
本手法は,高画質カメラ-LiDARキャリブレーションによる実用的応用に寄与する,低誤差かつ高ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-11-04T14:32:55Z) - Continuous Online Extrinsic Calibration of Fisheye Camera and LiDAR [7.906477322731106]
高レベルの知覚機能を必要とする共通空間参照フレームにカメラとLiDARデータを融合するためには、正確な外部キャリブレーションが必要である。
連続的なオンライン外部キャリブレーションアルゴリズムは、センサーデータのみを使用して、車両の寿命中にカメラ-LiDARキャリブレーションの値を自動更新することができる。
本稿では,一般的な単眼深度推定ネットワークによって提供されるカメラ画像の深度推定と,外部キャリブレーションの最適化指標としてLiDAR点雲の幾何距離の相互情報を用いることを提案する。
論文 参考訳(メタデータ) (2023-06-22T23:16:31Z) - Improving Extrinsics between RADAR and LIDAR using Learning [18.211513930388417]
本稿では,自律システムにおける3次元RADAR-LIDARキャリブレーションの新しい解法を提案する。
この手法は、単純なターゲットを用いて、対応登録やワンステップ最適化アルゴリズムを含むデータを生成する。
提案手法は、PyTorchのようなディープラーニングフレームワークを使用し、勾配降下により最適化できる。
論文 参考訳(メタデータ) (2023-05-17T22:04:29Z) - Detecting Rotated Objects as Gaussian Distributions and Its 3-D
Generalization [81.29406957201458]
既存の検出方法は、パラメータ化バウンディングボックス(BBox)を使用して(水平)オブジェクトをモデル化し、検出する。
このような機構は回転検出に有効な回帰損失を構築するのに基本的な限界があると主張する。
回転した物体をガウス分布としてモデル化することを提案する。
2次元から3次元へのアプローチを、方向推定を扱うアルゴリズム設計により拡張する。
論文 参考訳(メタデータ) (2022-09-22T07:50:48Z) - TEScalib: Targetless Extrinsic Self-Calibration of LiDAR and Stereo
Camera for Automated Driving Vehicles with Uncertainty Analysis [4.616329048951671]
TEScalibは、LiDARとステレオカメラの新しい外在的自己校正手法である。
周囲の環境の幾何学的および測光的情報を使用し、自動走行車両のキャリブレーション対象を含まない。
KITTIデータセットで評価した手法は非常に有望な結果が得られる。
論文 参考訳(メタデータ) (2022-02-28T15:04:00Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。