論文の概要: Camera Calibration via Circular Patterns: A Comprehensive Framework with Measurement Uncertainty and Unbiased Projection Model
- arxiv url: http://arxiv.org/abs/2506.16842v1
- Date: Fri, 20 Jun 2025 08:46:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.393732
- Title: Camera Calibration via Circular Patterns: A Comprehensive Framework with Measurement Uncertainty and Unbiased Projection Model
- Title(参考訳): 円周パターンによるカメラキャリブレーション:不確かさと異常射影モデルを用いた包括的枠組み
- Authors: Chaehyeon Song, Dongjae Lee, Jongwoo Lim, Ayoung Kim,
- Abstract要約: 円形パターンの偏りのない投影モデルを提案し,チェッカーボードよりも精度が高いことを示す。
また、キャリブレーションの堅牢性と完全性を高めるために、円形パターンに不確実性を導入する。
このアプローチの中核となる概念は、その接続性を考慮して2次元形状の境界点をマルコフランダム場としてモデル化することである。
- 参考スコア(独自算出の注目度): 19.3491941784855
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Camera calibration using planar targets has been widely favored, and two types of control points have been mainly considered as measurements: the corners of the checkerboard and the centroid of circles. Since a centroid is derived from numerous pixels, the circular pattern provides more precise measurements than the checkerboard. However, the existing projection model of circle centroids is biased under lens distortion, resulting in low performance. To surmount this limitation, we propose an unbiased projection model of the circular pattern and demonstrate its superior accuracy compared to the checkerboard. Complementing this, we introduce uncertainty into circular patterns to enhance calibration robustness and completeness. Defining centroid uncertainty improves the performance of calibration components, including pattern detection, optimization, and evaluation metrics. We also provide guidelines for performing good camera calibration based on the evaluation metric. The core concept of this approach is to model the boundary points of a two-dimensional shape as a Markov random field, considering its connectivity. The shape distribution is propagated to the centroid uncertainty through an appropriate shape representation based on the Green theorem. Consequently, the resulting framework achieves marked gains in calibration accuracy and robustness. The complete source code and demonstration video are available at https://github.com/chaehyeonsong/discocal.
- Abstract(参考訳): 平面目標を用いたカメラキャリブレーションは広く支持されており、主にチェッカーボードの角と円のセントロイドの2種類の制御点が測定されている。
セントロイドは多数のピクセルから導出されるため、円形のパターンはチェッカーボードよりも正確に測定できる。
しかし、円偏心線の既存の投影モデルはレンズ歪みの下で偏りがあり、性能は低い。
この制限を克服するため,円形パターンの偏りのない投影モデルを提案し,チェッカーボードよりも精度が高いことを示す。
補足することで、キャリブレーションの堅牢性と完全性を高めるために、円形パターンに不確実性を導入する。
セントロイドの不確実性の定義は、パターン検出、最適化、評価指標を含むキャリブレーションコンポーネントのパフォーマンスを改善する。
また、評価基準に基づいて、良好なカメラキャリブレーションを行うためのガイドラインも提供する。
このアプローチの中核となる概念は、その接続性を考慮して2次元形状の境界点をマルコフランダム場としてモデル化することである。
形状分布は、グリーン定理に基づく適切な形状表現により、遠心不確かさに伝播する。
その結果, キャリブレーション精度とロバスト性は著しく向上した。
ソースコードとデモビデオはhttps://github.com/chaehyeonsong/discocal.comで公開されている。
関連論文リスト
- Unbiased Estimator for Distorted Conics in Camera Calibration [17.310876803936782]
モーメントを用いた円錐型キャリブレーションの新しい定式化について述べる。
我々の導出は、第1モーメントが歪み下であってもバイアスなしで推定できるという数学的発見に基づいている。
これにより、突起と歪の間のモーメント変化を追跡でき、歪んだ円錐の最初のモーメントを確実に保存できる。
論文 参考訳(メタデータ) (2024-03-07T15:29:11Z) - EdgeCalib: Multi-Frame Weighted Edge Features for Automatic Targetless
LiDAR-Camera Calibration [15.057994140880373]
実世界のシナリオにおけるLiDARとカメラの自動校正のためのエッジベースのアプローチを提案する。
エッジ機能は、様々な環境で広く使われているが、画像と点雲の両方に並び、外在パラメータを決定する。
その結果, 最先端回転精度は0.086deg, 翻訳精度は0.977cmであり, 既存のエッジベースキャリブレーション法よりも精度とロバスト性が高いことがわかった。
論文 参考訳(メタデータ) (2023-10-25T13:27:56Z) - Vanishing Point Estimation in Uncalibrated Images with Prior Gravity
Direction [82.72686460985297]
我々はマンハッタンのフレームを推定する問題に取り組む。
2つの新しい2行解法が導出され、そのうちの1つは既存の解法に影響を与える特異点に悩まされない。
また、局所最適化の性能を高めるために、任意の行で実行される新しい最小でないメソッドを設計する。
論文 参考訳(メタデータ) (2023-08-21T13:03:25Z) - Proximity-Informed Calibration for Deep Neural Networks [49.330703634912915]
ProCalは、近接性に基づいてサンプル信頼度を調整する理論的保証を持つプラグアンドプレイアルゴリズムである。
ProCalは、近接バイアスに対処し、バランスの取れた、長い、分布シフトの設定の校正を改善するのに有効であることを示す。
論文 参考訳(メタデータ) (2023-06-07T16:40:51Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - Confidence Calibration for Intent Detection via Hyperspherical Space and
Rebalanced Accuracy-Uncertainty Loss [17.26964140836123]
一部のシナリオでは、ユーザは正確さだけでなく、モデルの信頼性も気にします。
本稿では,超球面空間と精度・不確かさ損失の再バランスを用いたモデルを提案する。
本モデルでは,既存の校正手法より優れ,校正基準の大幅な改善を実現している。
論文 参考訳(メタデータ) (2022-03-17T12:01:33Z) - A Model for Multi-View Residual Covariances based on Perspective
Deformation [88.21738020902411]
マルチビューSfM, オードメトリ, SLAMセットアップにおける視覚的残差の共分散モデルの導出を行う。
我々は、合成データと実データを用いてモデルを検証し、それを光度および特徴量に基づくバンドル調整に統合する。
論文 参考訳(メタデータ) (2022-02-01T21:21:56Z) - Learning-Based Framework for Camera Calibration with Distortion
Correction and High Precision Feature Detection [14.297068346634351]
本稿では,これらのボトルネックに対処する従来の手法と学習に基づくアプローチを組み合わせたハイブリッドカメラキャリブレーションフレームワークを提案する。
特に、このフレームワークは学習に基づくアプローチを利用して、効率的な歪み補正とロバストなチェス盤角座標符号化を行う。
広範に使われている2つのカメラキャリブレーションツールボックスと比較して、実データと合成データの両方の実験結果は、提案フレームワークのより良い堅牢性と高い精度を示す。
論文 参考訳(メタデータ) (2022-02-01T00:19:18Z) - Optimal Target Shape for LiDAR Pose Estimation [1.9048510647598205]
ターゲットは、乱雑な環境やテクスチャのない環境でのオブジェクト追跡のような問題に不可欠である。
対称形状は、スパースセンサーデータを使用する際に曖昧さを生じさせる。
本稿では,LiDAR点雲のポーズあいまいさを除去するためにターゲット形状を最適化するという概念を紹介する。
論文 参考訳(メタデータ) (2021-09-02T19:18:24Z) - Canny-VO: Visual Odometry with RGB-D Cameras based on Geometric 3D-2D
Edge Alignment [85.32080531133799]
本稿では,自由形式の曲線登録に関する古典的な問題をレビューし,効率的なrgbdビジュアルオドメトリシステムcanny-voに適用する。
エッジ登録でよく用いられる距離変換の代替として、近似近接近傍場と配向近接近傍場という2つの方法が提案されている。
3D2Dエッジアライメントは、効率性と精度の両方の観点から、これらの代替製剤の恩恵を受けます。
論文 参考訳(メタデータ) (2020-12-15T11:42:17Z) - Robust 6D Object Pose Estimation by Learning RGB-D Features [59.580366107770764]
本稿では、この局所最適問題を解くために、回転回帰のための離散連続的な新しい定式化を提案する。
我々はSO(3)の回転アンカーを均一にサンプリングし、各アンカーから目標への制約付き偏差を予測し、最適な予測を選択するための不確実性スコアを出力する。
LINEMOD と YCB-Video の2つのベンチマーク実験により,提案手法が最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-02-29T06:24:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。