論文の概要: Occlusion-Aware Cost Constructor for Light Field Depth Estimation
- arxiv url: http://arxiv.org/abs/2203.01576v1
- Date: Thu, 3 Mar 2022 08:58:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-05 05:32:10.436454
- Title: Occlusion-Aware Cost Constructor for Light Field Depth Estimation
- Title(参考訳): 光深度推定のための閉塞型コストコンストラクタ
- Authors: Yingqian Wang, Longguang Wang, Zhengyu Liang, Jungang Yang, Wei An,
Yulan Guo
- Abstract要約: 本稿では,光場深度推定のための簡易かつ高速なコストコンストラクタを提案する。
我々のコストコンストラクタは、特別に設計された拡張率を持つ一連の畳み込みによって構成されます。
我々のネットワークは、平均二乗誤差(MSE)の観点から、よく使われる4D LFベンチマークで第1位である。
- 参考スコア(独自算出の注目度): 43.20835454408815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Matching cost construction is a key step in light field (LF) depth
estimation, but was rarely studied in the deep learning era. Recent deep
learning-based LF depth estimation methods construct matching cost by
sequentially shifting each sub-aperture image (SAI) with a series of predefined
offsets, which is complex and time-consuming. In this paper, we propose a
simple and fast cost constructor to construct matching cost for LF depth
estimation. Our cost constructor is composed by a series of convolutions with
specifically designed dilation rates. By applying our cost constructor to SAI
arrays, pixels under predefined disparities can be integrated and matching cost
can be constructed without using any shifting operation. More importantly, the
proposed cost constructor is occlusion-aware and can handle occlusions by
dynamically modulating pixels from different views. Based on the proposed cost
constructor, we develop a deep network for LF depth estimation. Our network
ranks first on the commonly used 4D LF benchmark in terms of the mean square
error (MSE), and achieves a faster running time than other state-of-the-art
methods.
- Abstract(参考訳): マッチングコスト構築は光場深度推定における重要なステップであるが,ディープラーニング時代にはほとんど研究されなかった。
近年の深層学習に基づくLF深度推定手法は,各サブアパーチャ画像(SAI)を,複雑で時間を要する一連のオフセットに順次シフトすることで,マッチングコストを構築する。
本稿では,LF深度推定のための整合コストを構築するための簡易かつ高速なコンストラクタを提案する。
我々のコストコンストラクタは、特別に設計された拡張率を持つ一連の畳み込みによって構成される。
SAIアレイにコストコンストラクタを適用することにより、予め定義された差分の下でピクセルを統合することができ、シフト操作を使わずにマッチングコストを構築することができる。
さらに、提案するコストコンストラクタは、オクルージョン対応であり、異なるビューから画素を動的に変調することで、オクルージョンを処理できる。
提案するコストコンストラクタに基づいて,LF深度推定のためのディープネットワークを開発する。
我々のネットワークは、平均二乗誤差(MSE)の観点からよく使われる4D LFベンチマークで第1位であり、他の最先端手法よりも高速な実行時間を達成する。
関連論文リスト
- Deep Cost Ray Fusion for Sparse Depth Video Completion [29.512567810302368]
スパース深度ビデオ補完のための学習ベースフレームワークを提案する。
隣り合うコストボリュームの重なり合った1対の光線に対して、注意機構を効果的に活用するRayFusionを導入する。
我々のフレームワークは、さまざまな屋内および屋外データセットに対する最先端のアプローチを一貫して上回るか、あるいはライバルする。
論文 参考訳(メタデータ) (2024-09-23T11:42:16Z) - Boosting Multi-view Stereo with Late Cost Aggregation [47.59150287682573]
ペアワイズ・マッチング・コスト・アグリゲーションは現代学習型マルチビュー・ステレオ(MVS)にとって重要なステップである
我々は、ネットワークフィードフォワードプロセス全体を通して、ペアワイズコストを集約できる遅延集約アプローチを提案する。
これにより、後続の深度ネットワークは、コストの忠実さを損なうことなく、重要な幾何学的手がかりを完全に活用することができる。
論文 参考訳(メタデータ) (2024-01-22T08:23:52Z) - LRRU: Long-short Range Recurrent Updating Networks for Depth Completion [45.48580252300282]
深度補修をより効率的に行うために,Long-Short Range Recurrent Updating (LRRU) ネットワークを提案する。
LRRUはまずスパース入力を大まかに満たして初期密度の深度マップを取得し、次に学習された空間変化カーネルを通して反復的に更新する。
我々の初期深度マップには粗いが完全な深度情報があり、粗い深度から深度を直接退避させる負担を軽減できる。
論文 参考訳(メタデータ) (2023-10-13T09:04:52Z) - OccCasNet: Occlusion-aware Cascade Cost Volume for Light Field Depth
Estimation [26.572015989990845]
LF深度(分散度)推定のためのオクルージョン対応カスケードコストボリュームを提案する。
本手法では, サンプリング間隔を一定に保ちながら, サンプリング数を削減する。
提案手法は精度と効率のバランスが良く,まずMSEとQ25の指標でランク付けする。
論文 参考訳(メタデータ) (2023-05-28T12:31:27Z) - Object-aware Monocular Depth Prediction with Instance Convolutions [72.98771405534937]
本稿では,特徴集合を避けるために明示的に調整された新しい畳み込み演算子を提案する。
提案手法は,部分ごとの深度をスーパーピクセルで推定する。
NYUv2とiBimsデータセットに対する我々の評価は、インスタンスの畳み込みの優位性を明確に示している。
論文 参考訳(メタデータ) (2021-12-02T18:59:48Z) - Depth Completion using Plane-Residual Representation [84.63079529738924]
深度情報を最も近い深度平面ラベル$p$と残値$r$で解釈する新しい方法を紹介し,これをPlane-Residual (PR)表現と呼ぶ。
PR表現で深度情報を解釈し,それに対応する深度補完網を用いて,高速な計算により深度補完性能を向上させることができた。
論文 参考訳(メタデータ) (2021-04-15T10:17:53Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - Relative Pose from Deep Learned Depth and a Single Affine Correspondence [37.04516812025321]
本研究では, 深層学習した非メトリック単分子深度とアフィン対応性を組み合わせた新しいアプローチを提案する。
奥行き情報とアフィンの特徴を考慮すると、カメラポーズに対する2つの新しい制約が導出される。
提案した解法は1点RANSACアプローチで利用可能である。
論文 参考訳(メタデータ) (2020-07-20T13:24:28Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。