論文の概要: A Linear Fractional Transformation Model and Calibration Method for Light Field Camera
- arxiv url: http://arxiv.org/abs/2511.03962v1
- Date: Thu, 06 Nov 2025 01:32:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.261128
- Title: A Linear Fractional Transformation Model and Calibration Method for Light Field Camera
- Title(参考訳): 光界カメラの線形フラクタル変換モデルと校正法
- Authors: Zhong Chen, Changfeng Chen,
- Abstract要約: 本稿では、主レンズとマイクロレンズアレイを分離するために、線形分数変換パラメータ$alpha$を提案する。
提案手法は,少なくとも二乗法に基づく解析解を含む。
提案モデルに基づいて, 原光場画像のシミュレーションを高速化する。
- 参考スコア(独自算出の注目度): 2.5217833238102485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate calibration of internal parameters is a crucial yet challenging prerequisite for 3D reconstruction using light field cameras. In this paper, we propose a linear fractional transformation(LFT) parameter $\alpha$ to decoupled the main lens and micro lens array (MLA). The proposed method includes an analytical solution based on least squares, followed by nonlinear refinement. The method for detecting features from the raw images is also introduced. Experimental results on both physical and simulated data have verified the performance of proposed method. Based on proposed model, the simulation of raw light field images becomes faster, which is crucial for data-driven deep learning methods. The corresponding code can be obtained from the author's website.
- Abstract(参考訳): 内部パラメータの正確な校正は、光界カメラを用いた3次元再構成の必須条件である。
本稿では、メインレンズとマイクロレンズアレイ(MLA)を分離する線形分数変換(LFT)パラメータ$\alpha$を提案する。
提案手法は最小二乗法に基づく解析解を含む。
また、原画像から特徴を検出する方法も導入する。
実測データとシミュレーションデータの両方を用いた実験により,提案手法の性能が検証された。
提案モデルに基づき,データ駆動深層学習法において重要となる生光場画像のシミュレーションを高速化する。
対応するコードは著者のウェブサイトから取得できる。
関連論文リスト
- DiffusionSfM: Predicting Structure and Motion via Ray Origin and Endpoint Diffusion [53.70278210626701]
マルチビュー画像から3次元シーン形状とカメラポーズを直接推定するデータ駆動型マルチビュー推論手法を提案する。
我々のフレームワークであるDiffusionSfMは、シーン幾何学とカメラを、グローバルフレーム内のピクセルワイズ線源とエンドポイントとしてパラメータ化します。
我々は、DiffusionSfMを合成データセットと実データセットの両方で実証的に検証し、古典的および学習ベースのアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-05-08T17:59:47Z) - Linear Anchored Gaussian Mixture Model for Location and Width Computations of Objects in Thick Line Shape [1.7205106391379021]
3次元画像グレーレベル表現は、統計分布の有限混合モデルであると考えられている。
入力データとして元の画像を用いた期待最大化アルゴリズム(Algo1)を用いてモデルパラメータを推定する。
修正EMアルゴリズム(Algo2)について詳述する。
論文 参考訳(メタデータ) (2024-04-03T20:05:00Z) - $PC^2$: Projection-Conditioned Point Cloud Diffusion for Single-Image 3D
Reconstruction [97.06927852165464]
単一のRGB画像から物体の3次元形状を再構築することは、コンピュータビジョンにおける長年の課題である。
条件付き偏光拡散プロセスによりスパース点雲を生成する単一像3次元再構成法を提案する。
論文 参考訳(メタデータ) (2023-02-21T13:37:07Z) - Calibration and Auto-Refinement for Light Field Cameras [13.76996108304056]
本稿では,一対のパターンに基づくパラメータ抽出に基づく光場カメラキャリブレーションと補正のアプローチを提案する。
その後、三角フィルタと非線形最適化を用いて任意のシーンからのカメラパラメータの精製を行う。
論文 参考訳(メタデータ) (2021-06-11T05:49:14Z) - Data-Driven Shadowgraph Simulation of a 3D Object [50.591267188664666]
我々は、数値コードをより安価でプロジェクションベースのサロゲートモデルに置き換えている。
このモデルは、数値的な方法で必要となるすべての前の電場を計算することなく、所定の時間で電場を近似することができる。
このモデルでは, シミュレーションパラメータの狭い範囲におけるデータの摂動問題において, 高品質な再構成が示されており, 大規模な入力データに利用することができる。
論文 参考訳(メタデータ) (2021-06-01T08:46:04Z) - Hybrid Trilinear and Bilinear Programming for Aligning Partially
Overlapping Point Sets [85.71360365315128]
多くの応用において、部分重なり合う点集合が対応するRPMアルゴリズムに不変であるようなアルゴリズムが必要である。
まず、目的が立方体有界関数であることを示し、次に、三線型および双線型単相変換の凸エンベロープを用いて、その下界を導出する。
次に、変換変数上の分岐のみを効率よく実行するブランチ・アンド・バウンド(BnB)アルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-01-19T04:24:23Z) - Single-Image HDR Reconstruction by Learning to Reverse the Camera
Pipeline [100.5353614588565]
本稿では,LDR画像形成パイプラインの領域知識をモデルに組み込むことを提案する。
我々は,HDRto-LDR画像形成パイプラインを(1)ダイナミックレンジクリッピング,(2)カメラ応答関数からの非線形マッピング,(3)量子化としてモデル化する。
提案手法は,最先端の単一画像HDR再構成アルゴリズムに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-04-02T17:59:04Z) - A Two-step Calibration Method for Unfocused Light Field Camera Based on
Projection Model Analysis [8.959346460518226]
提案手法は,方向パラメータセットに対する従来のカメラキャリブレーション手法を再利用することができる。
提案手法の精度とロバスト性は,様々なベンチマーク基準で評価される。
論文 参考訳(メタデータ) (2020-01-11T10:37:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。