論文の概要: CLAIM: Camera-LiDAR Alignment with Intensity and Monodepth
- arxiv url: http://arxiv.org/abs/2512.14001v1
- Date: Tue, 16 Dec 2025 01:46:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.541728
- Title: CLAIM: Camera-LiDAR Alignment with Intensity and Monodepth
- Title(参考訳): CLAIM:カメラ-LiDARアライメントとモノデプス
- Authors: Zhuo Zhang, Yonghui Liu, Meijie Zhang, Feiyang Tan, Yikang Ding,
- Abstract要約: 我々は,カメラとLiDARからデータを整列する新しい手法であるCLAIMを提案する。
画像とLiDAR点雲の初期推定とペアを考えると、CLAIMは粗い粒度探索法を用いて最適な変換を求める。
我々は、パブリックKITTI、データセット、MIAS-L CEC上でCLAIMを評価し、実験結果により、最先端の手法と比較して優れた性能を示した。
- 参考スコア(独自算出の注目度): 10.382931594335451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we unleash the potential of the powerful monodepth model in camera-LiDAR calibration and propose CLAIM, a novel method of aligning data from the camera and LiDAR. Given the initial guess and pairs of images and LiDAR point clouds, CLAIM utilizes a coarse-to-fine searching method to find the optimal transformation minimizing a patched Pearson correlation-based structure loss and a mutual information-based texture loss. These two losses serve as good metrics for camera-LiDAR alignment results and require no complicated steps of data processing, feature extraction, or feature matching like most methods, rendering our method simple and adaptive to most scenes. We validate CLAIM on public KITTI, Waymo, and MIAS-LCEC datasets, and the experimental results demonstrate its superior performance compared with the state-of-the-art methods. The code is available at https://github.com/Tompson11/claim.
- Abstract(参考訳): 本稿では,カメラ-LiDARキャリブレーションにおける強力なモノデプスモデルの可能性を解き放つとともに,カメラとLiDARのデータを整列する新しい手法であるCLAIMを提案する。
画像とLiDAR点雲の初期推定とペアについて、CLAIMは粗大な探索法を用いて、ピアソン相関に基づく構造損失と相互情報に基づくテクスチャ損失を最小化する最適変換を求める。
これらの2つの損失は、カメラとLiDARのアライメント結果にとって良い指標であり、データ処理、特徴抽出、あるいはほとんどのメソッドのような機能マッチングの複雑なステップを必要としない。
我々は、パブリックKITTI、Waymo、MIAS-LCECデータセット上でCLAIMを検証し、その実験結果により、最先端の手法と比較して優れた性能を示した。
コードはhttps://github.com/Tompson11/claimで公開されている。
関連論文リスト
- Robust LiDAR-Camera Calibration with 2D Gaussian Splatting [0.3281128493853064]
LiDARとカメラデータを統合するための重要な最初のステップは、LiDARカメラシステムの校正である。
既存のキャリブレーション手法の多くは、複雑な手動操作を含む補助対象オブジェクトに依存している。
幾何学的制約を用いたLiDARカメラの外部パラメータを推定するキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2025-04-01T08:19:26Z) - Reasoning and Learning a Perceptual Metric for Self-Training of Reflective Objects in Bin-Picking with a Low-cost Camera [10.976379239028455]
低コストのRGB-Dカメラを用いた金属オブジェクトのビンピッキングは、しばしばスパース深度情報と反射面テクスチャに悩まされる。
本稿では,メートル法学習段階と自己学習段階からなる2段階の枠組みを提案する。
提案手法は,ROBIデータセットと新たに導入したSelf-ROBIデータセットの両方において,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2025-03-26T04:03:51Z) - CalibRefine: Deep Learning-Based Online Automatic Targetless LiDAR-Camera Calibration with Iterative and Attention-Driven Post-Refinement [7.736775961390864]
CalibRefineは完全に自動化され、ターゲットレス、オンラインキャリブレーションフレームワークである。
生のLiDAR点雲とカメラ画像を直接処理する。
以上の結果から,頑健なオブジェクトレベルの特徴マッチングと反復的改善と自己監督的注意に基づく改善が組み合わさって,信頼性の高いセンサアライメントを実現することが示唆された。
論文 参考訳(メタデータ) (2025-02-24T20:53:42Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - {\mu}Split: efficient image decomposition for microscopy data [50.794670705085835]
muSplitは、蛍光顕微鏡画像の文脈で訓練された画像分解のための専用アプローチである。
本稿では,大規模な画像コンテキストのメモリ効率向上を実現するメタアーキテクチャである横型文脈化(LC)を提案する。
muSplitを5つの分解タスクに適用し、1つは合成データセットに、もう4つは実際の顕微鏡データから導出する。
論文 参考訳(メタデータ) (2022-11-23T11:26:24Z) - Gait Recognition in Large-scale Free Environment via Single LiDAR [35.684257181154905]
深度を捉えるLiDARの能力は、ロボットの知覚にとって重要な要素であり、現実世界の歩行認識の可能性を秘めている。
本稿では,頑健な歩行認識のための階層型多表現特徴相互作用ネットワーク(HMRNet)を提案する。
LiDARに基づく歩行認識研究を容易にするため,大規模かつ制約のない歩行データセットであるFreeGaitを紹介した。
論文 参考訳(メタデータ) (2022-11-22T16:05:58Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。