論文の概要: Light field Rectification based on relative pose estimation
- arxiv url: http://arxiv.org/abs/2201.12533v1
- Date: Sat, 29 Jan 2022 08:57:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 05:21:48.924526
- Title: Light field Rectification based on relative pose estimation
- Title(参考訳): 相対的なポーズ推定に基づく光場補正
- Authors: Xiao Huo, Dongyang Jin, Saiping Zhang and Fuzheng Yang
- Abstract要約: ハンドヘルド光場(LF)カメラは3次元シーン再構成や深度推定などのコンピュータビジョンに特有の利点がある。
提案手法では,2台のハンドヘルドLFカメラで捉えた2台のLFをランダムな相対的なポーズで整列する。
高精度な補正のために,2つのLFカメラ間の相対回転と変換を推定するポーズ推定法も提案されている。
- 参考スコア(独自算出の注目度): 5.888941251567256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hand-held light field (LF) cameras have unique advantages in computer vision
such as 3D scene reconstruction and depth estimation. However, the related
applications are limited by the ultra-small baseline, e.g., leading to the
extremely low depth resolution in reconstruction. To solve this problem, we
propose to rectify LF to obtain a large baseline. Specifically, the proposed
method aligns two LFs captured by two hand-held LF cameras with a random
relative pose, and extracts the corresponding row-aligned sub-aperture images
(SAIs) to obtain an LF with a large baseline. For an accurate rectification, a
method for pose estimation is also proposed, where the relative rotation and
translation between the two LF cameras are estimated. The proposed pose
estimation minimizes the degree of freedom (DoF) in the LF-point-LF-point
correspondence model and explicitly solves this model in a linear way. The
proposed pose estimation outperforms the state-of-the-art algorithms by
providing more accurate results to support rectification. The significantly
improved depth resolution in 3D reconstruction demonstrates the effectiveness
of the proposed LF rectification.
- Abstract(参考訳): ハンドヘルド光場(LF)カメラは3次元シーン再構成や深度推定などのコンピュータビジョンに特有の利点がある。
しかし、関連するアプリケーションは、例えば、非常に小さなベースラインによって制限され、再構成の深さが極端に低くなる。
この問題を解決するために,我々はLFを修正して大きなベースラインを得る方法を提案する。
具体的には、2つのハンドヘルドLFカメラで捉えた2つのLFをランダムな相対的なポーズで整列し、対応する行整列サブアパーチャ画像(SAI)を抽出し、大きなベースラインを持つLFを得る。
正確な補正のために,2つのLFカメラ間の相対回転と変換を推定するポーズ推定法も提案されている。
提案手法は,LF-point-LF-point対応モデルにおける自由度(DoF)を最小化し,このモデルを明確に線形に解く。
提案するポーズ推定は,精度向上のために精度の高い結果を提供することにより,最先端アルゴリズムよりも優れる。
3次元再構成における深度分解能の向上は,提案したLF補正の有効性を示す。
関連論文リスト
- PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - LFIC-DRASC: Deep Light Field Image Compression Using Disentangled Representation and Asymmetrical Strip Convolution [51.909036244222904]
ディスタングル表現と非対称ストリップ畳み込みを用いたエンドツーエンドのディープLF画像圧縮法を提案する。
実験の結果,提案したLFIC-DRASCは平均20.5%のビットレート削減を達成した。
論文 参考訳(メタデータ) (2024-09-18T05:33:42Z) - Diffusion-based Light Field Synthesis [50.24624071354433]
LFdiffは、LF合成に適した拡散ベースの生成フレームワークである。
本稿では,遠絡型雑音推定ネットワークDistgUnetを提案する。
広範囲な実験により、LFdiffは視覚的に快く、不均一に制御可能な光電場を合成する際に優れていることが示されている。
論文 参考訳(メタデータ) (2024-02-01T13:13:16Z) - Phase Guided Light Field for Spatial-Depth High Resolution 3D Imaging [36.208109063579066]
3Dイメージングでは、光界カメラは通常単発で、空間解像度と深度精度の低下に悩まされる。
そこで本研究では,オフザシェルフ光場カメラの空間分解能と深度を両立させる位相誘導光場アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-17T15:08:15Z) - RNNPose: Recurrent 6-DoF Object Pose Refinement with Robust
Correspondence Field Estimation and Pose Optimization [46.144194562841435]
本稿では、オブジェクトポーズ改善のためのリカレントニューラルネットワーク(RNN)に基づくフレームワークを提案する。
この問題は、推定対応フィールドに基づいて非線形最小二乗問題として定式化される。
各イテレーションにおいて、対応フィールド推定とポーズ精錬を代替して行い、正確なオブジェクトポーズを復元する。
論文 参考訳(メタデータ) (2022-03-24T06:24:55Z) - Calibrated and Partially Calibrated Semi-Generalized Homographies [65.29477277713205]
視点と一般化カメラから半一般化ホモグラフィーを推定するための最初の最小解を提案する。
提案した解法は、多くの合成および実世界の実験で実証されたように安定かつ効率的である。
論文 参考訳(メタデータ) (2021-03-11T08:56:24Z) - Deep Selective Combinatorial Embedding and Consistency Regularization
for Light Field Super-resolution [93.95828097088608]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LFサブアパーチャ画像間のコヒーレンスを探索するための,新しい学習ベースLF空間SRフレームワークを提案する。
合成および実世界のLFデータセットに対する実験結果は、最先端手法に対する我々のアプローチの顕著な利点を示している。
論文 参考訳(メタデータ) (2020-09-26T08:34:37Z) - Light Field Spatial Super-resolution via Deep Combinatorial Geometry
Embedding and Structural Consistency Regularization [99.96632216070718]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元空間特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LF画像の各ビューを個別に超解答する新しい学習ベースLFフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-05T14:39:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。