論文の概要: Pixel-wise rational model for structured light system
- arxiv url: http://arxiv.org/abs/2305.07128v1
- Date: Thu, 11 May 2023 20:33:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 14:48:08.955190
- Title: Pixel-wise rational model for structured light system
- Title(参考訳): 構造光系の画素ワイド合理的モデル
- Authors: Ra\'ul Vargas, Lenny A. Romero, Song Zhang, Andres G. Marrugo
- Abstract要約: ステレオ法を初期校正に利用し,各画素の有理モデルの推定を行う。
提案モデルでは,キャリブレーション体積の内外における高い測定精度を実現し,その堅牢性と精度を示す。
- 参考スコア(独自算出の注目度): 4.291718205405102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This Letter presents a novel structured light system model that effectively
considers local lens distortion by pixel-wise rational functions. We leverage
the stereo method for initial calibration and then estimate the rational model
for each pixel. Our proposed model can achieve high measurement accuracy within
and outside the calibration volume, demonstrating its robustness and accuracy.
- Abstract(参考訳): このレターは、画素ワイドな有理関数による局所レンズ歪みを効果的に考察する構造的光システムモデルを示す。
ステレオ法を初期校正に利用し,各画素の有理モデルの推定を行う。
提案モデルは,キャリブレーションボリューム内外において高い測定精度を達成でき,ロバスト性と精度を示す。
関連論文リスト
- Superresolving optical ruler based on spatial mode demultiplexing for systems evolving under Brownian motion [0.0]
任意の相対輝度を持つ2つの弱非コヒーレント源系の中心のブラウン運動が適応SPADE測定精度限界に及ぼす影響について検討した。
レイリーの呪いはそのようなシナリオに存在するが、SPADE測定は完全な直接撮像より優れている。
論文 参考訳(メタデータ) (2024-07-18T17:23:14Z) - RoFIR: Robust Fisheye Image Rectification Framework Impervious to Optical Center Deviation [88.54817424560056]
局所歪みの度合いと方向を測定する歪みベクトルマップ(DVM)を提案する。
DVMを学習することで、大域的な歪みパターンに頼ることなく、各ピクセルの局所歪みを独立に識別することができる。
事前学習段階では、歪みベクトルマップを予測し、各画素の局所歪み特徴を知覚する。
微調整段階では、魚眼画像修正のための画素単位のフローマップを予測する。
論文 参考訳(メタデータ) (2024-06-27T06:38:56Z) - Joint Spatial-Temporal Calibration for Camera and Global Pose Sensor [0.4143603294943439]
ロボット工学において、モーションキャプチャシステムはローカライズアルゴリズムの精度を測定するために広く利用されている。
これらの機能は、カメラとグローバルポーズセンサーの間で正確で信頼性の高い時空間キャリブレーションパラメータを必要とする。
本研究では,これらのキャリブレーションパラメータを推定する新しい2つの手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T20:56:14Z) - FishRecGAN: An End to End GAN Based Network for Fisheye Rectification
and Calibration [21.816020192280977]
本研究では,魚眼画像の修正とカメラのキャリブレーションと歪みパラメータの同時調整を行うエンド・ツー・エンドのディープラーニング手法を提案する。
提案手法はPSNR値が22.343の高分解能で頑健な性能を実現している。
論文 参考訳(メタデータ) (2023-05-09T07:38:09Z) - Self-calibrating Photometric Stereo by Neural Inverse Rendering [88.67603644930466]
本稿では3次元オブジェクト再構成のための非校正光度ステレオの課題に取り組む。
本研究では,物体形状,光方向,光強度を協調的に最適化する手法を提案する。
本手法は,実世界のデータセット上での光推定と形状復元における最先端の精度を示す。
論文 参考訳(メタデータ) (2022-07-16T02:46:15Z) - A Model for Multi-View Residual Covariances based on Perspective
Deformation [88.21738020902411]
マルチビューSfM, オードメトリ, SLAMセットアップにおける視覚的残差の共分散モデルの導出を行う。
我々は、合成データと実データを用いてモデルを検証し、それを光度および特徴量に基づくバンドル調整に統合する。
論文 参考訳(メタデータ) (2022-02-01T21:21:56Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - Leveraging Spatial and Photometric Context for Calibrated Non-Lambertian
Photometric Stereo [61.6260594326246]
空間と測光の両方を同時に活用できる効率的な完全畳み込みアーキテクチャを提案する。
分離可能な4D畳み込みと2D熱マップを使うことで、サイズが小さくなり、効率が向上する。
論文 参考訳(メタデータ) (2021-03-22T18:06:58Z) - Automatic LiDAR Extrinsic Calibration System using Photodetector and
Planar Board for Large-scale Applications [110.32028864986918]
本研究は, PD-target System と呼ばれる光検出器アレイを組み込んだターゲットボードの新たな概念を提案し, ターゲット表面上の対応レーザビームの正確な位置を求める。
提案手法を低分解能LiDARで実験した結果,LiDARオフセットポーズは0.1度と3mmの精度で推定可能であることがわかった。
論文 参考訳(メタデータ) (2020-08-24T16:28:40Z) - Spatiotemporal Camera-LiDAR Calibration: A Targetless and Structureless
Approach [32.15405927679048]
ターゲットレスで構造のないカメラ-DARキャリブレーション法を提案する。
本手法は, 時間的パラメータの初期調整を必要としないような, 閉形式解と非構造束を結合する。
提案手法の精度とロバスト性をシミュレーションおよび実データ実験により実証する。
論文 参考訳(メタデータ) (2020-01-17T07:25:59Z) - A Two-step Calibration Method for Unfocused Light Field Camera Based on
Projection Model Analysis [8.959346460518226]
提案手法は,方向パラメータセットに対する従来のカメラキャリブレーション手法を再利用することができる。
提案手法の精度とロバスト性は,様々なベンチマーク基準で評価される。
論文 参考訳(メタデータ) (2020-01-11T10:37:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。