論文の概要: Targetless LiDAR-Camera Calibration with Anchored 3D Gaussians
- arxiv url: http://arxiv.org/abs/2504.04597v1
- Date: Sun, 06 Apr 2025 20:00:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 00:44:33.535954
- Title: Targetless LiDAR-Camera Calibration with Anchored 3D Gaussians
- Title(参考訳): Anchored 3D Gaussian を用いたLiDAR-Camera Calibration
- Authors: Haebeom Jung, Namtae Kim, Jungwoo Kim, Jaesik Park,
- Abstract要約: 任意のシーンからセンサポーズとシーン形状を協調的に最適化するLiDARカメラキャリブレーション手法を提案する。
2つの実世界の自律走行データセットに関する広範な実験により,本手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 21.057702337896995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a targetless LiDAR-camera calibration method that jointly optimizes sensor poses and scene geometry from arbitrary scenes, without relying on traditional calibration targets such as checkerboards or spherical reflectors. Our approach leverages a 3D Gaussian-based scene representation. We first freeze reliable LiDAR points as anchors, then jointly optimize the poses and auxiliary Gaussian parameters in a fully differentiable manner using a photometric loss. This joint optimization significantly reduces sensor misalignment, resulting in higher rendering quality and consistently improved PSNR compared to the carefully calibrated poses provided in popular datasets. We validate our method through extensive experiments on two real-world autonomous driving datasets, KITTI-360 and Waymo, each featuring distinct sensor configurations. Additionally, we demonstrate the robustness of our approach using a custom LiDAR-camera setup, confirming strong performance across diverse hardware configurations.
- Abstract(参考訳): チェッカーボードや球面リフレクタなどの従来のキャリブレーションターゲットに頼ることなく,任意のシーンからセンサポーズやシーン形状を協調的に最適化するLiDARカメラキャリブレーション手法を提案する。
提案手法は3次元ガウス型シーン表現を利用する。
我々はまずまず、信頼度の高いLiDAR点をアンカーとして凍結し、次に、フォトメトリックロスを用いて、ポーズと補助ガウスパラメータを完全に微分可能な方法で共同最適化する。
この共同最適化により、センサのミスアライメントが大幅に低減され、レンダリング品質が向上し、PSNRが安定的に改善される。
我々は,KITTI-360とWaymoの2つの実世界の自律走行データセットに関する広範な実験を通じて,本手法の有効性を検証した。
さらに、カスタムLiDARカメラのセットアップによるアプローチの堅牢性を実証し、多様なハードウェア構成の強い性能を確認する。
関連論文リスト
- Coca-Splat: Collaborative Optimization for Camera Parameters and 3D Gaussians [26.3996055215988]
Coca-Splatは、スパースビューのポーズレスシーン再構築と新規ビュー合成(NVS)の課題に対処する新しいアプローチである
変形検出TRansformerにインスパイアされ、3次元ガウスおよびカメラパラメータの別クエリを設計する。
変形可能なトランスフォーマー層を通じて層ごとにレイヤを更新し、単一のネットワークで共同最適化を可能にする。
論文 参考訳(メタデータ) (2025-04-01T10:48:46Z) - Robust LiDAR-Camera Calibration with 2D Gaussian Splatting [0.3281128493853064]
LiDARとカメラデータを統合するための重要な最初のステップは、LiDARカメラシステムの校正である。
既存のキャリブレーション手法の多くは、複雑な手動操作を含む補助対象オブジェクトに依存している。
幾何学的制約を用いたLiDARカメラの外部パラメータを推定するキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2025-04-01T08:19:26Z) - D3DR: Lighting-Aware Object Insertion in Gaussian Splatting [48.80431740983095]
D3DRと呼ばれる3DGS並列化オブジェクトを3DGSシーンに挿入する手法を提案する。
我々は、現実世界のデータに基づいて訓練された拡散モデルの進歩を活用し、正しいシーンライティングを暗黙的に理解する。
提案手法を既存手法と比較することにより,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2025-03-09T19:48:00Z) - SC-OmniGS: Self-Calibrating Omnidirectional Gaussian Splatting [29.489453234466982]
SC-OmniGSは、360度画像を用いた高速かつ正確な放射野再構成のための新しい自己校正システムである。
実世界のデータの歪みを補正し,性能向上を図るために,一方向一方向カメラモデルを導入する。
論文 参考訳(メタデータ) (2025-02-07T08:06:30Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - P2O-Calib: Camera-LiDAR Calibration Using Point-Pair Spatial Occlusion
Relationship [1.6921147361216515]
本研究では,3次元空間における閉塞関係を用いた2次元3次元エッジポイント抽出に基づく新たなターゲットレスキャリブレーション手法を提案する。
本手法は,高画質カメラ-LiDARキャリブレーションによる実用的応用に寄与する,低誤差かつ高ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-11-04T14:32:55Z) - Towards Nonlinear-Motion-Aware and Occlusion-Robust Rolling Shutter
Correction [54.00007868515432]
既存の手法では、一様速度仮定による補正の精度を推定する上で、課題に直面している。
本稿では,個々の画素の高次補正場を正確に推定する,幾何的回転シャッター(QRS)運動解法を提案する。
提案手法は,Carla-RS,Fastec-RS,BS-RSCの各データセット上で,PSNRの+4.98,+0.77,+4.33を超える。
論文 参考訳(メタデータ) (2023-03-31T15:09:18Z) - Photometric LiDAR and RGB-D Bundle Adjustment [3.3948742816399697]
本稿では,RGB-D と LiDAR の両方を併用した新しいバンドリング調整(BA)測光戦略を提案する。
さらに,RGB-D と LiDAR を併用した統合手法の利点を示す。
論文 参考訳(メタデータ) (2023-03-29T17:35:23Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset
for Spatially Varying Isotropic Materials [65.95928593628128]
多視点光度ステレオ技術を用いて3次元形状と空間的に異なる反射率の両方をキャプチャする手法を提案する。
我々のアルゴリズムは、遠近点光源と遠近点光源に適している。
論文 参考訳(メタデータ) (2020-01-18T12:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。