論文の概要: DF-Calib: Targetless LiDAR-Camera Calibration via Depth Flow
- arxiv url: http://arxiv.org/abs/2504.01416v1
- Date: Wed, 02 Apr 2025 07:09:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 15:00:43.236119
- Title: DF-Calib: Targetless LiDAR-Camera Calibration via Depth Flow
- Title(参考訳): DF-Calib:深さ流によるLiDAR-Cameraキャリブレーション
- Authors: Shu Han, Xubo Zhu, Ji Wu, Ximeng Cai, Wen Yang, Huai Yu, Gui-Song Xia,
- Abstract要約: DF-Calibは, キャリブレーションをモード内深さ流量推定問題として再構成するLiDARカメラキャリブレーション法である。
DF-Calibは、カメラ画像から深度マップを推定し、疎LiDAR投影深度マップを完成させる。
本稿では,有効画素を優先する信頼性マップを導入し,深度フロー推定の精度を高めるために,知覚的に重み付けされたスパースフロー損失を提案する。
- 参考スコア(独自算出の注目度): 30.56092814783138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Precise LiDAR-camera calibration is crucial for integrating these two sensors into robotic systems to achieve robust perception. In applications like autonomous driving, online targetless calibration enables a prompt sensor misalignment correction from mechanical vibrations without extra targets. However, existing methods exhibit limitations in effectively extracting consistent features from LiDAR and camera data and fail to prioritize salient regions, compromising cross-modal alignment robustness. To address these issues, we propose DF-Calib, a LiDAR-camera calibration method that reformulates calibration as an intra-modality depth flow estimation problem. DF-Calib estimates a dense depth map from the camera image and completes the sparse LiDAR projected depth map, using a shared feature encoder to extract consistent depth-to-depth features, effectively bridging the 2D-3D cross-modal gap. Additionally, we introduce a reliability map to prioritize valid pixels and propose a perceptually weighted sparse flow loss to enhance depth flow estimation. Experimental results across multiple datasets validate its accuracy and generalization,with DF-Calib achieving a mean translation error of 0.635cm and rotation error of 0.045 degrees on the KITTI dataset.
- Abstract(参考訳): 正確なLiDARカメラキャリブレーションは、この2つのセンサーをロボットシステムに統合し、堅牢な認識を実現するために不可欠である。
自律運転のようなアプリケーションでは、オンラインのターゲットレスキャリブレーションは、余分な目標のない機械的振動からの迅速なセンサの誤調整を可能にする。
しかし、既存の手法では、LiDARとカメラデータから一貫した特徴を効果的に抽出することの限界が示され、有能な領域の優先順位付けに失敗し、モジュール間のアライメントの堅牢性を損なう。
これらの問題に対処するために, DF-Calibを提案する。これは, キャリブレーションをモード内深さ流推定問題として再構成するLiDARカメラキャリブレーション法である。
DF-Calibは、カメラ画像から密度の深い深度マップを推定し、共有特徴エンコーダを用いて疎LiDAR投影深度マップを完了し、一貫した深度から深度までの特徴を抽出し、2D-3Dのクロスモーダルギャップを効果的にブリッジする。
さらに,有効画素を優先する信頼性マップを導入し,深度フロー推定を改善するために,知覚的に重み付けされたスパースフロー損失を提案する。
DF-Calib は平均翻訳誤差 0.635cm と回転誤差 0.045° を KITTI データセット上で達成している。
関連論文リスト
- Targetless LiDAR-Camera Calibration with Anchored 3D Gaussians [21.057702337896995]
任意のシーンからセンサポーズとシーン形状を協調的に最適化するLiDARカメラキャリブレーション手法を提案する。
2つの実世界の自律走行データセットに関する広範な実験により,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2025-04-06T20:00:01Z) - Robust LiDAR-Camera Calibration with 2D Gaussian Splatting [0.3281128493853064]
LiDARとカメラデータを統合するための重要な最初のステップは、LiDARカメラシステムの校正である。
既存のキャリブレーション手法の多くは、複雑な手動操作を含む補助対象オブジェクトに依存している。
幾何学的制約を用いたLiDARカメラの外部パラメータを推定するキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2025-04-01T08:19:26Z) - YOCO: You Only Calibrate Once for Accurate Extrinsic Parameter in LiDAR-Camera Systems [0.5999777817331317]
カメラとLiDARからなるマルチセンサー融合システムでは、正確な外部キャリブレーションがシステムの長期的な安定性と環境の正確な認識に寄与する。
本稿では,LiDARカメラシステムにおいて,対応点登録の必要性を回避するための完全自動外部校正手法を提案する。
論文 参考訳(メタデータ) (2024-07-25T13:44:49Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - W-HMR: Monocular Human Mesh Recovery in World Space with Weak-Supervised Calibration [57.37135310143126]
モノクロ画像からの3次元運動回復のための従来の手法は、カメラ座標に依存するため、しばしば不足する。
W-HMRは、身体の歪み情報に基づいて「適切な」焦点長を予測する弱教師付き校正法である。
また,世界空間における可視的再構築のために,身体の向きを補正する OrientCorrect モジュールを提案する。
論文 参考訳(メタデータ) (2023-11-29T09:02:07Z) - P2O-Calib: Camera-LiDAR Calibration Using Point-Pair Spatial Occlusion
Relationship [1.6921147361216515]
本研究では,3次元空間における閉塞関係を用いた2次元3次元エッジポイント抽出に基づく新たなターゲットレスキャリブレーション手法を提案する。
本手法は,高画質カメラ-LiDARキャリブレーションによる実用的応用に寄与する,低誤差かつ高ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-11-04T14:32:55Z) - From Chaos to Calibration: A Geometric Mutual Information Approach to
Target-Free Camera LiDAR Extrinsic Calibration [4.378156825150505]
そこで本研究では,根拠となる真理学習データを必要としない目標外キャリブレーションアルゴリズムを提案する。
我々は,KITTI と KITTI-360 の魚眼データセットを用いた改良を行った。
論文 参考訳(メタデータ) (2023-11-03T13:30:31Z) - Continuous Online Extrinsic Calibration of Fisheye Camera and LiDAR [7.906477322731106]
高レベルの知覚機能を必要とする共通空間参照フレームにカメラとLiDARデータを融合するためには、正確な外部キャリブレーションが必要である。
連続的なオンライン外部キャリブレーションアルゴリズムは、センサーデータのみを使用して、車両の寿命中にカメラ-LiDARキャリブレーションの値を自動更新することができる。
本稿では,一般的な単眼深度推定ネットワークによって提供されるカメラ画像の深度推定と,外部キャリブレーションの最適化指標としてLiDAR点雲の幾何距離の相互情報を用いることを提案する。
論文 参考訳(メタデータ) (2023-06-22T23:16:31Z) - Towards Nonlinear-Motion-Aware and Occlusion-Robust Rolling Shutter
Correction [54.00007868515432]
既存の手法では、一様速度仮定による補正の精度を推定する上で、課題に直面している。
本稿では,個々の画素の高次補正場を正確に推定する,幾何的回転シャッター(QRS)運動解法を提案する。
提案手法は,Carla-RS,Fastec-RS,BS-RSCの各データセット上で,PSNRの+4.98,+0.77,+4.33を超える。
論文 参考訳(メタデータ) (2023-03-31T15:09:18Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。