論文の概要: Iterative Occlusion-Aware Light Field Depth Estimation using 4D
Geometrical Cues
- arxiv url: http://arxiv.org/abs/2403.02043v1
- Date: Mon, 4 Mar 2024 13:47:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 18:36:16.780526
- Title: Iterative Occlusion-Aware Light Field Depth Estimation using 4D
Geometrical Cues
- Title(参考訳): 4次元幾何学的キューを用いた繰り返し閉塞光深度推定
- Authors: Rui Louren\c{c}o, Lucas Thomaz, Eduardo A. B. Silva, Sergio M. M.
Faria
- Abstract要約: 本稿では,光深度推定のための4次元幾何学的手がかりを明確に理解し,活用することに焦点を当てる。
4次元モデルでは、4次元空間における鍵2次元平面の交点の向きを決定し、解析することで深度/分散度推定を行う。
実験の結果,提案手法は,学習に基づく手法と非学習に基づく手法の両方に優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Light field cameras and multi-camera arrays have emerged as promising
solutions for accurately estimating depth by passively capturing light
information. This is possible because the 3D information of a scene is embedded
in the 4D light field geometry. Commonly, depth estimation methods extract this
information relying on gradient information, heuristic-based optimisation
models, or learning-based approaches. This paper focuses mainly on explicitly
understanding and exploiting 4D geometrical cues for light field depth
estimation. Thus, a novel method is proposed, based on a non-learning-based
optimisation approach for depth estimation that explicitly considers surface
normal accuracy and occlusion regions by utilising a fully explainable 4D
geometric model of the light field. The 4D model performs depth/disparity
estimation by determining the orientations and analysing the intersections of
key 2D planes in 4D space, which are the images of 3D-space points in the 4D
light field. Experimental results show that the proposed method outperforms
both learning-based and non-learning-based state-of-the-art methods in terms of
surface normal angle accuracy, achieving a Median Angle Error on planar
surfaces, on average, 26.3\% lower than the state-of-the-art, and still being
competitive with state-of-the-art methods in terms of Mean Squared Error
$\vc{\times}$ 100 and Badpix 0.07.
- Abstract(参考訳): 光フィールドカメラとマルチカメラアレイは、受動的に光情報を捉えて深度を正確に推定するための有望なソリューションとして登場した。
これは、シーンの3d情報は4dライトフィールド幾何に埋め込まれているため可能である。
一般に、深度推定法は勾配情報、ヒューリスティックに基づく最適化モデル、学習に基づくアプローチに依存する。
本稿では,光深度推定のための4次元幾何学的手がかりを明確に理解し,活用することに焦点を当てる。
そこで,光場の完全説明可能な4次元幾何モデルを用いて表面正規精度と閉塞領域を明確に考慮した,非学習に基づく深度推定のための最適化手法を提案する。
4次元光場における3次元空間点の画像である4次元空間におけるキー2次元平面の交点の向きを決定し,解析することにより,深度/分散度推定を行う。
実験結果から,提案手法は,平面面上のメディアアングル誤差を平均26.3倍の値で達成し,平均正方形誤差$\vc{\times}=100およびBadpix 0.07の値において,学習ベースおよび非学習ベースの最先端手法よりも優れていた。
関連論文リスト
- Surface Normal Reconstruction Using Polarization-Unet [0.0]
偏光からの形状(SfP)は、物体の高分解能な3次元再構成のための最良の解の1つである。
本稿では,物体の表面正規化を実現するために,エンドツーエンドのディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T13:09:58Z) - GUPNet++: Geometry Uncertainty Propagation Network for Monocular 3D
Object Detection [95.8940731298518]
我々はGUPNet++(Geometry Uncertainty Propagation Network)を提案する。
トレーニング中の幾何射影の不確実性伝播関係をモデル化し、エンドツーエンドのモデル学習の安定性と効率を向上させる。
実験により,提案手法は画像ベースモノクロ3次元検出におけるSOTA性能を得るだけでなく,簡易なフレームワークで有効性を示す。
論文 参考訳(メタデータ) (2023-10-24T08:45:15Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - Neural Radiance Fields Approach to Deep Multi-View Photometric Stereo [103.08512487830669]
多視点測光ステレオ問題(MVPS)に対する現代的な解法を提案する。
我々は、光度ステレオ(PS)画像形成モデルを用いて表面配向を取得し、それを多視点のニューラルラディアンス場表現とブレンドして物体の表面形状を復元する。
本手法は,多視点画像のニューラルレンダリングを行い,深部光度ステレオネットワークによって推定される表面の正規性を活用している。
論文 参考訳(メタデータ) (2021-10-11T20:20:03Z) - Learning Stereopsis from Geometric Synthesis for 6D Object Pose
Estimation [11.999630902627864]
現在のモノクラーベース6Dオブジェクトポーズ推定法は、一般的にRGBDベースの手法よりも競争力の低い結果が得られる。
本稿では,短いベースライン2ビュー設定による3次元幾何体積に基づくポーズ推定手法を提案する。
実験により,本手法は最先端の単分子法よりも優れ,異なる物体やシーンにおいて堅牢であることが示された。
論文 参考訳(メタデータ) (2021-09-25T02:55:05Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D Object Detection [70.71934539556916]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - 3D-Aware Ellipse Prediction for Object-Based Camera Pose Estimation [3.103806775802078]
視聴条件に頑健な粗いカメラポーズ計算法を提案する。
観察条件に関係なく、物体を確実に検出する深層学習技術を活用する。
論文 参考訳(メタデータ) (2021-05-24T18:40:18Z) - LUCES: A Dataset for Near-Field Point Light Source Photometric Stereo [30.31403197697561]
LUCESは, 様々な素材の14個のオブジェクトからなる, 近距離Ld点光のための最初の実世界のデータセットである。
52個のLEDを計る装置は、カメラから10から30cm離れた位置にある各物体に点灯するように設計されている。
提案するデータセットにおける最新の近接場測光ステレオアルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-04-27T12:30:42Z) - Virtual Normal: Enforcing Geometric Constraints for Accurate and Robust
Depth Prediction [87.08227378010874]
深度予測における高次3次元幾何学的制約の重要性を示す。
単純な幾何学的制約を強制する損失項を設計することにより、単眼深度推定の精度とロバスト性を大幅に改善する。
The-of-the-art results of learning metric depth on NYU Depth-V2 and KITTI。
論文 参考訳(メタデータ) (2021-03-07T00:08:21Z) - Deep learning with 4D spatio-temporal data representations for OCT-based
force estimation [59.405210617831656]
深層学習に基づく力推定の問題を,3D OCTボリュームのストリームを用いた4次元体積時間データに拡張する。
平均絶対誤差は10.7mNで, 4Dterm-temporalデータを用いた場合, 従来使用されていたデータ表現よりも優れていた。
論文 参考訳(メタデータ) (2020-05-20T13:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。