論文の概要: Targetless LiDAR-Camera Calibration with Neural Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2504.04597v2
- Date: Thu, 09 Oct 2025 03:55:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 15:34:28.434479
- Title: Targetless LiDAR-Camera Calibration with Neural Gaussian Splatting
- Title(参考訳): ニューラルガウス法によるLiDAR-Cameraキャリブレーション
- Authors: Haebeom Jung, Namtae Kim, Jungwoo Kim, Jaesik Park,
- Abstract要約: 本稿では,ニューラルベースガウス表現と協調してセンサポーズを最適化するTLC(Targetless LiDAR scene)を提案する。
光度および幾何正則化による完全微分可能なパイプラインは、ロバストで一般化可能なキャリブレーションを実現する。
- 参考スコア(独自算出の注目度): 28.41267004945046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate LiDAR-camera calibration is crucial for multi-sensor systems. However, traditional methods often rely on physical targets, which are impractical for real-world deployment. Moreover, even carefully calibrated extrinsics can degrade over time due to sensor drift or external disturbances, necessitating periodic recalibration. To address these challenges, we present a Targetless LiDAR-Camera Calibration (TLC-Calib) that jointly optimizes sensor poses with a neural Gaussian-based scene representation. Reliable LiDAR points are frozen as anchor Gaussians to preserve global structure, while auxiliary Gaussians prevent local overfitting under noisy initialization. Our fully differentiable pipeline with photometric and geometric regularization achieves robust and generalizable calibration, consistently outperforming existing targetless methods on KITTI-360, Waymo, and FAST-LIVO2, and surpassing even the provided calibrations in rendering quality.
- Abstract(参考訳): 正確なLiDARカメラキャリブレーションはマルチセンサーシステムに不可欠である。
しかし、従来の手法は物理的なターゲットに依存しており、実際の展開には実用的ではない。
さらに、慎重に校正された外生学は、センサーのドリフトや外生障害により経時的に劣化し、定期的な再校正が必要である。
これらの課題に対処するために、ニューラルガウスに基づくシーン表現でセンサポーズを協調的に最適化するTargetless LiDAR-Camera Calibration (TLC-Calib)を提案する。
信頼性の高いLiDAR点は、グローバル構造を維持するためにアンカーガウスとして凍結され、補助ガウス点はうるさい初期化の下で局所的なオーバーフィッティングを防ぐ。
KITTI-360、Waymo、FAST-LIVO2の既存のターゲットレス手法を一貫して上回り、レンダリング品質のキャリブレーションさえも上回っている。
関連論文リスト
- DST-Calib: A Dual-Path, Self-Supervised, Target-Free LiDAR-Camera Extrinsic Calibration Network [57.22935789233992]
本稿では,オンライン方式で動作するLiDARカメラ外装キャリブレーションネットワークについて紹介する。
提案手法は,一般化可能性の観点から既存手法を著しく上回っている。
論文 参考訳(メタデータ) (2026-01-03T13:57:01Z) - ALICE-LRI: A General Method for Lossless Range Image Generation for Spinning LiDAR Sensors without Calibration Metadata [0.0]
3D LiDARセンサーは、リモートセンシングアプリケーションにおける自律ナビゲーション、環境モニタリング、高精度マッピングに不可欠である。
これらのセンサによって生成された巨大な点雲を効率的に処理するために、LiDARデータは角の位置と距離でポイントを整理する2Dレンジ画像に投影されることが多い。
製造者メタデータや校正ファイルを必要とせず、LiDAR点雲を回転させることにより、ロスレスレンジ画像生成を実現する、最初の一般センサ非依存方式であるALICE-LRIを提案する。
論文 参考訳(メタデータ) (2025-10-23T16:22:58Z) - Coca-Splat: Collaborative Optimization for Camera Parameters and 3D Gaussians [26.3996055215988]
Coca-Splatは、スパースビューのポーズレスシーン再構築と新規ビュー合成(NVS)の課題に対処する新しいアプローチである
変形検出TRansformerにインスパイアされ、3次元ガウスおよびカメラパラメータの別クエリを設計する。
変形可能なトランスフォーマー層を通じて層ごとにレイヤを更新し、単一のネットワークで共同最適化を可能にする。
論文 参考訳(メタデータ) (2025-04-01T10:48:46Z) - Robust LiDAR-Camera Calibration with 2D Gaussian Splatting [0.3281128493853064]
LiDARとカメラデータを統合するための重要な最初のステップは、LiDARカメラシステムの校正である。
既存のキャリブレーション手法の多くは、複雑な手動操作を含む補助対象オブジェクトに依存している。
幾何学的制約を用いたLiDARカメラの外部パラメータを推定するキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2025-04-01T08:19:26Z) - D3DR: Lighting-Aware Object Insertion in Gaussian Splatting [48.80431740983095]
D3DRと呼ばれる3DGS並列化オブジェクトを3DGSシーンに挿入する手法を提案する。
我々は、現実世界のデータに基づいて訓練された拡散モデルの進歩を活用し、正しいシーンライティングを暗黙的に理解する。
提案手法を既存手法と比較することにより,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2025-03-09T19:48:00Z) - CalibRefine: Deep Learning-Based Online Automatic Targetless LiDAR-Camera Calibration with Iterative and Attention-Driven Post-Refinement [5.069968819561576]
CalibRefineは完全に自動化され、ターゲットレス、オンラインキャリブレーションフレームワークである。
生のLiDAR点雲とカメラ画像を直接処理する。
以上の結果から,頑健なオブジェクトレベルの特徴マッチングと反復的改善と自己監督的注意に基づく改善が組み合わさって,信頼性の高いセンサアライメントを実現することが示唆された。
論文 参考訳(メタデータ) (2025-02-24T20:53:42Z) - SC-OmniGS: Self-Calibrating Omnidirectional Gaussian Splatting [29.489453234466982]
SC-OmniGSは、360度画像を用いた高速かつ正確な放射野再構成のための新しい自己校正システムである。
実世界のデータの歪みを補正し,性能向上を図るために,一方向一方向カメラモデルを導入する。
論文 参考訳(メタデータ) (2025-02-07T08:06:30Z) - What Really Matters for Learning-based LiDAR-Camera Calibration [50.2608502974106]
本稿では,学習に基づくLiDAR-Cameraキャリブレーションの開発を再考する。
我々は、広く使われているデータ生成パイプラインによる回帰ベースの手法の限界を識別する。
また,入力データ形式と前処理操作がネットワーク性能に与える影響についても検討する。
論文 参考訳(メタデータ) (2025-01-28T14:12:32Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Improving Gaussian Splatting with Localized Points Management [52.009874685460694]
局所的点管理(LPM)は、点加算と幾何校正の両方を最大限に必要としながら、これらの誤り貢献ゾーンを特定することができる。
LPMは特定されたゾーンに点密度を適用し、これらの領域の前にある点の不透明度をリセットし、不適切な点を修正する新しい機会を生み出す。
特に、LPMは静的3DGSとダイナミックなSpaceTimeGSの両方を改善して、リアルタイム速度を維持しながら最先端のレンダリング品質を実現している。
論文 参考訳(メタデータ) (2024-06-06T16:55:07Z) - W-HMR: Monocular Human Mesh Recovery in World Space with Weak-Supervised Calibration [57.37135310143126]
モノクロ画像からの3次元運動回復のための従来の手法は、カメラ座標に依存するため、しばしば不足する。
W-HMRは、身体の歪み情報に基づいて「適切な」焦点長を予測する弱教師付き校正法である。
また,世界空間における可視的再構築のために,身体の向きを補正する OrientCorrect モジュールを提案する。
論文 参考訳(メタデータ) (2023-11-29T09:02:07Z) - P2O-Calib: Camera-LiDAR Calibration Using Point-Pair Spatial Occlusion
Relationship [1.6921147361216515]
本研究では,3次元空間における閉塞関係を用いた2次元3次元エッジポイント抽出に基づく新たなターゲットレスキャリブレーション手法を提案する。
本手法は,高画質カメラ-LiDARキャリブレーションによる実用的応用に寄与する,低誤差かつ高ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-11-04T14:32:55Z) - Towards Nonlinear-Motion-Aware and Occlusion-Robust Rolling Shutter
Correction [54.00007868515432]
既存の手法では、一様速度仮定による補正の精度を推定する上で、課題に直面している。
本稿では,個々の画素の高次補正場を正確に推定する,幾何的回転シャッター(QRS)運動解法を提案する。
提案手法は,Carla-RS,Fastec-RS,BS-RSCの各データセット上で,PSNRの+4.98,+0.77,+4.33を超える。
論文 参考訳(メタデータ) (2023-03-31T15:09:18Z) - Photometric LiDAR and RGB-D Bundle Adjustment [3.3948742816399697]
本稿では,RGB-D と LiDAR の両方を併用した新しいバンドリング調整(BA)測光戦略を提案する。
さらに,RGB-D と LiDAR を併用した統合手法の利点を示す。
論文 参考訳(メタデータ) (2023-03-29T17:35:23Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - CRLF: Automatic Calibration and Refinement based on Line Feature for
LiDAR and Camera in Road Scenes [16.201111055979453]
道路シーンにおけるライダーとカメラの遠距離パラメータを校正する新しい手法を提案する。
道路の車線やポールなどの静的な直線形状の物体を画像と点群の両方で線状化します。
KITTIと社内データセットに関する広範な実験を行い、定量的および定性的な結果は、当社の方法の堅牢性と正確性を示しています。
論文 参考訳(メタデータ) (2021-03-08T06:02:44Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - ACSC: Automatic Calibration for Non-repetitive Scanning Solid-State
LiDAR and Camera Systems [11.787271829250805]
Solid-State LiDAR(SSL)は、環境から3Dポイントクラウドを低コストで効率的に取得することを可能にする。
非繰り返し走査型SSLとカメラシステムのための完全自動校正法を提案する。
実環境下でのLiDARとカメラセンサの組み合わせについて検討した。
論文 参考訳(メタデータ) (2020-11-17T09:11:28Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset
for Spatially Varying Isotropic Materials [65.95928593628128]
多視点光度ステレオ技術を用いて3次元形状と空間的に異なる反射率の両方をキャプチャする手法を提案する。
我々のアルゴリズムは、遠近点光源と遠近点光源に適している。
論文 参考訳(メタデータ) (2020-01-18T12:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。