論文の概要: Click-Calib: A Robust Extrinsic Calibration Method for Surround-View Systems
- arxiv url: http://arxiv.org/abs/2501.01557v1
- Date: Thu, 02 Jan 2025 22:24:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:11:42.874633
- Title: Click-Calib: A Robust Extrinsic Calibration Method for Surround-View Systems
- Title(参考訳): Click-Calib: 周辺システムに対するロバストな外部校正法
- Authors: Lihao Wang,
- Abstract要約: Click-Calibは、オフラインSVS外部キャリブレーションのためのパターンなしのアプローチである。
他のオフラインキャリブレーションアプローチとは異なり、Click-Calib最適化カメラは広範囲にわたってポーズする。
社内データセットとパブリックなWoodScapeデータセットの評価は、その優れた精度と堅牢性を示している。
- 参考スコア(独自算出の注目度): 1.9761774213809036
- License:
- Abstract: Surround-View System (SVS) is an essential component in Advanced Driver Assistance System (ADAS) and requires precise calibrations. However, conventional offline extrinsic calibration methods are cumbersome and time-consuming as they rely heavily on physical patterns. Additionally, these methods primarily focus on short-range areas surrounding the vehicle, resulting in lower calibration quality in more distant zones. To address these limitations, we propose Click-Calib, a pattern-free approach for offline SVS extrinsic calibration. Without requiring any special setup, the user only needs to click a few keypoints on the ground in natural scenes. Unlike other offline calibration approaches, Click-Calib optimizes camera poses over a wide range by minimizing reprojection distance errors of keypoints, thereby achieving accurate calibrations at both short and long distances. Furthermore, Click-Calib supports both single-frame and multiple-frame modes, with the latter offering even better results. Evaluations on our in-house dataset and the public WoodScape dataset demonstrate its superior accuracy and robustness compared to baseline methods. Code is avalaible at https://github.com/lwangvaleo/click_calib.
- Abstract(参考訳): Surround-View System (SVS) はAdvanced Driver Assistance System (ADAS) の重要なコンポーネントであり、正確な校正を必要とする。
しかし、従来のオフライン外部キャリブレーション法は、物理パターンに大きく依存するため、面倒で時間を要する。
さらに、これらの手法は主に車両を取り巻く短距離領域に焦点を合わせ、より遠くのゾーンではキャリブレーションの質が低下した。
これらの制約に対処するため、オフラインSVS外部キャリブレーションのためのパターンフリーアプローチであるClick-Calibを提案する。
特別な設定を必要とせずに、ユーザーは自然のシーンで地面にあるいくつかのキーポイントをクリックするだけでよい。
他のオフラインキャリブレーションアプローチとは異なり、Click-Calibはキーポイントの再投影距離誤差を最小限に抑え、短距離と短距離の両方で正確なキャリブレーションを実現することで、カメラのポーズを広範囲にわたって最適化する。
さらに、Click-Calibはシングルフレームモードとマルチフレームモードの両方をサポートし、後者はより良い結果を提供する。
社内データセットとパブリックなWoodScapeデータセットの評価は,ベースライン手法と比較して精度と堅牢性に優れていた。
code is avalaible at https://github.com/lwangvaleo/click_calib.com
関連論文リスト
- UniCal: Unified Neural Sensor Calibration [32.7372115947273]
自動運転車(SDV)には、LiDARとカメラの正確な校正が必要である。
従来のキャリブレーション手法では、制御され構造化されたシーンでキャプチャされたフィデューシャルを利用し、処理を最適化するために対応を計算する。
我々は、複数のLiDARとカメラを備えたSDVを強制的に校正する統合フレームワークUniCalを提案する。
論文 参考訳(メタデータ) (2024-09-27T17:56:04Z) - Kalib: Markerless Hand-Eye Calibration with Keypoint Tracking [52.4190876409222]
ハンドアイキャリブレーションでは、カメラとロボット間の変換を推定する。
ディープラーニングの最近の進歩は、マーカーレス技術を提供するが、それらは課題を提示している。
自動的かつ普遍的なマーカーレスハンドアイキャリブレーションパイプラインであるKalibを提案する。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - Unbiased Estimator for Distorted Conics in Camera Calibration [17.310876803936782]
モーメントを用いた円錐型キャリブレーションの新しい定式化について述べる。
我々の導出は、第1モーメントが歪み下であってもバイアスなしで推定できるという数学的発見に基づいている。
これにより、突起と歪の間のモーメント変化を追跡でき、歪んだ円錐の最初のモーメントを確実に保存できる。
論文 参考訳(メタデータ) (2024-03-07T15:29:11Z) - EdgeCalib: Multi-Frame Weighted Edge Features for Automatic Targetless
LiDAR-Camera Calibration [15.057994140880373]
実世界のシナリオにおけるLiDARとカメラの自動校正のためのエッジベースのアプローチを提案する。
エッジ機能は、様々な環境で広く使われているが、画像と点雲の両方に並び、外在パラメータを決定する。
その結果, 最先端回転精度は0.086deg, 翻訳精度は0.977cmであり, 既存のエッジベースキャリブレーション法よりも精度とロバスト性が高いことがわかった。
論文 参考訳(メタデータ) (2023-10-25T13:27:56Z) - Calib-Anything: Zero-training LiDAR-Camera Extrinsic Calibration Method
Using Segment Anything [2.8861987395149247]
本稿では,LiDARカメラのキャリブレーション手法を提案する。
整合性は点雲の3つの性質、すなわち強度、正規ベクトル、圏を含む。
異なるデータセットに対する実験により,本手法の汎用性と同等の精度が示された。
論文 参考訳(メタデータ) (2023-06-05T07:42:53Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - CRLF: Automatic Calibration and Refinement based on Line Feature for
LiDAR and Camera in Road Scenes [16.201111055979453]
道路シーンにおけるライダーとカメラの遠距離パラメータを校正する新しい手法を提案する。
道路の車線やポールなどの静的な直線形状の物体を画像と点群の両方で線状化します。
KITTIと社内データセットに関する広範な実験を行い、定量的および定性的な結果は、当社の方法の堅牢性と正確性を示しています。
論文 参考訳(メタデータ) (2021-03-08T06:02:44Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z) - Uncertainty Quantification and Deep Ensembles [79.4957965474334]
ディープアンサンブルが必ずしもキャリブレーション特性の改善につながるとは限らないことを示す。
そこで本研究では,混成正規化などの現代的な手法と併用して標準アンサンブル法を用いることで,キャリブレーションの少ないモデルが得られることを示す。
このテキストは、データが不足しているときにディープラーニングを活用するために、最も単純で一般的な3つのアプローチの相互作用を調べる。
論文 参考訳(メタデータ) (2020-07-17T07:32:24Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。