論文の概要: Superaccurate Camera Calibration via Inverse Rendering
- arxiv url: http://arxiv.org/abs/2003.09177v1
- Date: Fri, 20 Mar 2020 10:26:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 22:43:30.846580
- Title: Superaccurate Camera Calibration via Inverse Rendering
- Title(参考訳): 逆レンダリングによる超高精度カメラ校正
- Authors: Morten Hannemose and Jakob Wilm and Jeppe Revall Frisvad
- Abstract要約: 逆レンダリングの原理を用いたカメラキャリブレーションの新しい手法を提案する。
検出された特徴点のみに頼らず、内部パラメータの推定と校正対象のポーズを用いて光学的特徴の非フォトリアリスティックな等価性を暗黙的に描画する。
- 参考スコア(独自算出の注目度): 0.19336815376402716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The most prevalent routine for camera calibration is based on the detection
of well-defined feature points on a purpose-made calibration artifact. These
could be checkerboard saddle points, circles, rings or triangles, often printed
on a planar structure. The feature points are first detected and then used in a
nonlinear optimization to estimate the internal camera parameters.We propose a
new method for camera calibration using the principle of inverse rendering.
Instead of relying solely on detected feature points, we use an estimate of the
internal parameters and the pose of the calibration object to implicitly render
a non-photorealistic equivalent of the optical features. This enables us to
compute pixel-wise differences in the image domain without interpolation
artifacts. We can then improve our estimate of the internal parameters by
minimizing pixel-wise least-squares differences. In this way, our model
optimizes a meaningful metric in the image space assuming normally distributed
noise characteristic for camera sensors.We demonstrate using synthetic and real
camera images that our method improves the accuracy of estimated camera
parameters as compared with current state-of-the-art calibration routines. Our
method also estimates these parameters more robustly in the presence of noise
and in situations where the number of calibration images is limited.
- Abstract(参考訳): カメラキャリブレーションの最も一般的なルーチンは、目的のキャリブレーションアーティファクト上で明確に定義された特徴点の検出に基づいている。
これらはチェッカーボードのサドル、円、リング、三角形で、しばしば平面構造に印刷される。
特徴点を最初に検出し, 非線形最適化により内部カメラパラメータを推定し, 逆レンダリングの原理を用いた新しいカメラキャリブレーション手法を提案する。
検出された特徴点のみに頼るのではなく、内部パラメータとキャリブレーション対象のポーズを推定し、光学的特徴と非フォトリアリスティックな類似性を暗黙的にレンダリングする。
これにより、補間アーティファクトを使わずに画像領域の画素差を計算することができる。
次に、ピクセル単位の最小二乗差を最小化することで、内部パラメータの推定を改善することができる。
このように,カメラセンサに通常分布するノイズ特性を仮定して,画像空間に有意な指標を最適化し,推定カメラパラメータの精度を現在のキャリブレーションルーチンと比較して改善できることを,合成および実カメラ画像を用いて実証する。
また,ノイズの有無やキャリブレーション画像の数が限られている状況において,これらのパラメータをよりロバストに推定する。
関連論文リスト
- Learning to Make Keypoints Sub-Pixel Accurate [80.55676599677824]
本研究は,2次元局所特徴の検出におけるサブピクセル精度の課題に対処する。
本稿では,検出された特徴に対するオフセットベクトルを学習することにより,サブピクセル精度で検出器を拡張できる新しいネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T12:39:56Z) - Single-image camera calibration with model-free distortion correction [0.0]
本稿では,センサ全体をカバーする平面スペックルパターンの単一画像から,キャリブレーションパラメータの完全な集合を推定する方法を提案する。
デジタル画像相関を用いて校正対象の画像点と物理点との対応を求める。
プロシージャの最後には、画像全体にわたって、密度が高く均一なモデルフリーな歪みマップが得られる。
論文 参考訳(メタデータ) (2024-03-02T16:51:35Z) - The Influence of Autofocus Lenses in the Camera Calibration Process [0.0]
カメラキャリブレーションプロセスは、データのセットをピンホールモデルに調整することで構成される。
ピンホールモデルは焦点を考慮した場合、カメラの挙動を正確に表現しない。
距離依存焦点距離を持つピンホールモデルを提案し, キャリブレーション法を大幅に改善した。
論文 参考訳(メタデータ) (2024-02-07T09:20:01Z) - E-Calib: A Fast, Robust and Accurate Calibration Toolbox for Event Cameras [18.54225086007182]
E-Calibは、イベントカメラの新しい、高速で、堅牢で、正確なキャリブレーションツールボックスである。
提案手法は,様々なイベントカメラモデルに対する様々な厳密な実験で検証される。
論文 参考訳(メタデータ) (2023-06-15T12:16:38Z) - A Deep Perceptual Measure for Lens and Camera Calibration [35.03926427249506]
従来のマルチイメージキャリブレーション法の代わりに,単一画像から直接カメラキャリブレーションパラメータを推定することを提案する。
大規模なパノラマデータセットから自動的に生成されたサンプルを用いて、このネットワークをトレーニングする。
そこで我々は, カメラキャリブレーションパラメータを補正した3次元物体のリアリズムの判断を参加者に依頼した。
論文 参考訳(メタデータ) (2022-08-25T18:40:45Z) - Self-Calibrating Neural Radiance Fields [68.64327335620708]
キャリブレーション対象のないシーンの幾何学と正確なカメラパラメータを共同で学習する。
我々のカメラモデルは、ピンホールモデル、第4次ラジアル歪み、および任意の非線形カメラ歪みを学習可能な汎用ノイズモデルで構成されている。
論文 参考訳(メタデータ) (2021-08-31T13:34:28Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Zero-Shot Calibration of Fisheye Cameras [0.010956300138340428]
提案手法は,カメラの水平及び垂直の視野情報から,画像の取得を伴わないカメラパラメータを推定する。
この方法は画像歪みが大きい広角カメラや魚眼カメラに特に有用である。
論文 参考訳(メタデータ) (2020-11-30T08:10:24Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。