論文の概要: View-consistent 4D Light Field Depth Estimation
- arxiv url: http://arxiv.org/abs/2009.04065v1
- Date: Wed, 9 Sep 2020 01:47:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 11:39:15.027575
- Title: View-consistent 4D Light Field Depth Estimation
- Title(参考訳): ビュー一貫性4次元光深度推定
- Authors: Numair Khan, Min H. Kim, James Tompkin
- Abstract要約: 本研究では,光場内の各サブアパーチャ画像の深度マップを一貫したビューで計算する手法を提案する。
提案手法は,EPIを用いて深度エッジを正確に定義し,その辺を中央の視野内で空間的に拡散させる。
- 参考スコア(独自算出の注目度): 37.04038603184669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method to compute depth maps for every sub-aperture image in a
light field in a view consistent way. Previous light field depth estimation
methods typically estimate a depth map only for the central sub-aperture view,
and struggle with view consistent estimation. Our method precisely defines
depth edges via EPIs, then we diffuse these edges spatially within the central
view. These depth estimates are then propagated to all other views in an
occlusion-aware way. Finally, disoccluded regions are completed by diffusion in
EPI space. Our method runs efficiently with respect to both other classical and
deep learning-based approaches, and achieves competitive quantitative metrics
and qualitative performance on both synthetic and real-world light fields
- Abstract(参考訳): 本研究では,光場内の各サブアパーチャ画像の深度マップを一貫したビューで計算する方法を提案する。
従来の光深度推定法では、中央のサブアパーチャビューのみの深度マップを推定し、一貫したビュー推定に苦慮する。
提案手法は, 深度エッジをEPIで正確に定義し, 中央視野内で空間的に拡散する。
これらの深さ推定は、オクルージョン対応の方法で他のすべてのビューに伝達される。
最後に、非閉塞領域は EPI 空間の拡散によって完結する。
提案手法は,他の古典的および深層学習に基づくアプローチに対して効率的に動作し,合成および実世界の光場における競合的定量化および定性的性能を達成する。
関連論文リスト
- ScaleDepth: Decomposing Metric Depth Estimation into Scale Prediction and Relative Depth Estimation [62.600382533322325]
本研究では,新しい単分子深度推定法であるScaleDepthを提案する。
提案手法は,距離深度をシーンスケールと相対深度に分解し,セマンティック・アウェア・スケール予測モジュールを用いて予測する。
本手法は,室内と屋外の両方のシーンを統一した枠組みで距離推定する。
論文 参考訳(メタデータ) (2024-07-11T05:11:56Z) - Towards Multimodal Depth Estimation from Light Fields [29.26003765978794]
現在の深さ推定法は、異なる深さの複数の物体が単一のピクセルの色に寄与したとしても、単一の「真の」深さしか考慮していない。
これは、異なる深さの複数の物体が1つのピクセルの色に寄与したとしても、単一の「真の」深さのみを考慮しているデュー・カレント手法であると主張する。
我々は,ピクセルの色に寄与するすべての物体の深さを含む,最初の「マルチモーダル光場深度データセット」をコントリビュートする。
論文 参考訳(メタデータ) (2022-03-30T18:00:00Z) - Light Field Depth Estimation via Stitched Epipolar Plane Images [45.5616314866457]
本研究では,スライス計算を強化するための縫合EPI(SEPI)の概念を提案する。
SEPIは、同じ3Dポイントに対応する異なるEPIから線をシフトして連結することで、これを達成します。
また,テクスチャレス領域における深度推定の改善を目的とした深度伝搬戦略を提案する。
論文 参考訳(メタデータ) (2022-03-29T02:43:40Z) - Edge-aware Bidirectional Diffusion for Dense Depth Estimation from Light
Fields [31.941861222005603]
本研究では,光場から深度エッジと勾配のスパースセットを用いて高速かつ正確な深度マップを推定するアルゴリズムを提案する。
提案手法は,テクスチャエッジよりも深度エッジの方が局所的制約に敏感であるという考え方に基づいている。
論文 参考訳(メタデータ) (2021-07-07T01:26:25Z) - Efficient Depth Completion Using Learned Bases [94.0808155168311]
深度補正のための新しい大域的幾何制約を提案する。
低次元部分空間上によく配置される深さ写像を仮定することにより、高密度深度写像は全解像度の主深度基底の重み付け和で近似することができる。
論文 参考訳(メタデータ) (2020-12-02T11:57:37Z) - Deep Multi-Scale Feature Learning for Defocus Blur Estimation [10.455763145066168]
本稿では,1つの非焦点画像からエッジベースのデフォーカスボケ推定手法を提案する。
まず、深さの不連続性(ぼかし推定が曖昧な)にあるエッジと、ほぼ一定の深さ領域にあるエッジ(ぼかし推定が適切に定義されたパターンエッジ)とを区別する。
パターンエッジのみにおけるデフォーカスのぼかし量を推定し,検出した深度エッジ間のデータ伝搬を防止し,適切に定義されたオブジェクト境界を持つ濃密なぼかしマップを得るためのガイド付きフィルタに基づくスキームを探索する。
論文 参考訳(メタデータ) (2020-09-24T20:36:40Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z) - Predicting Sharp and Accurate Occlusion Boundaries in Monocular Depth
Estimation Using Displacement Fields [25.3479048674598]
単眼画像からの深度マップ予測の現在の手法は、滑らかで、局所的でない輪郭を予測しがちである。
我々は,何らかの再構成法により予測される深度マップから,閉塞境界付近の画素をよりシャープな再構成に再サンプリングできる2次元変位場を予測することを学ぶ。
本手法は, エンド・ツー・エンドのトレーニング可能な方法で, 任意の深さ推定手法の出力に適用できる。
論文 参考訳(メタデータ) (2020-02-28T14:15:07Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。