論文の概要: OccCasNet: Occlusion-aware Cascade Cost Volume for Light Field Depth
Estimation
- arxiv url: http://arxiv.org/abs/2305.17710v1
- Date: Sun, 28 May 2023 12:31:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 17:05:50.166301
- Title: OccCasNet: Occlusion-aware Cascade Cost Volume for Light Field Depth
Estimation
- Title(参考訳): OccCasNet:光深度推定のためのオクルージョン対応カスケードコストボリューム
- Authors: Wentao Chao, Fuqing Duan, Xuechun Wang, Yingqian Wang, Guanghui Wang
- Abstract要約: LF深度(分散度)推定のためのオクルージョン対応カスケードコストボリュームを提案する。
本手法では, サンプリング間隔を一定に保ちながら, サンプリング数を削減する。
提案手法は精度と効率のバランスが良く,まずMSEとQ25の指標でランク付けする。
- 参考スコア(独自算出の注目度): 26.572015989990845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Light field (LF) depth estimation is a crucial task with numerous practical
applications. However, mainstream methods based on the multi-view stereo (MVS)
are resource-intensive and time-consuming as they need to construct a finer
cost volume. To address this issue and achieve a better trade-off between
accuracy and efficiency, we propose an occlusion-aware cascade cost volume for
LF depth (disparity) estimation. Our cascaded strategy reduces the sampling
number while keeping the sampling interval constant during the construction of
a finer cost volume. We also introduce occlusion maps to enhance accuracy in
constructing the occlusion-aware cost volume. Specifically, we first obtain the
coarse disparity map through the coarse disparity estimation network. Then, the
sub-aperture images (SAIs) of side views are warped to the center view based on
the initial disparity map. Next, we propose photo-consistency constraints
between the warped SAIs and the center SAI to generate occlusion maps for each
SAI. Finally, we introduce the coarse disparity map and occlusion maps to
construct an occlusion-aware refined cost volume, enabling the refined
disparity estimation network to yield a more precise disparity map. Extensive
experiments demonstrate the effectiveness of our method. Compared with
state-of-the-art methods, our method achieves a superior balance between
accuracy and efficiency and ranks first in terms of MSE and Q25 metrics among
published methods on the HCI 4D benchmark. The code and model of the proposed
method are available at https://github.com/chaowentao/OccCasNet.
- Abstract(参考訳): 光場(LF)深度推定は,多くの実用応用において重要な課題である。
しかし、マルチビューステレオ(MVS)に基づく主流の手法は、より細かいコストのボリュームを構築する必要があるため、リソース集約的で時間を要する。
この問題に対処し,精度と効率のトレードオフを改善するために,LF深度推定のためのオクルージョン対応カスケードコストボリュームを提案する。
提案手法は,細かなコストボリュームの構築時にサンプリング間隔を一定に保ちながらサンプリング数を削減する。
また,オクルージョン対応のコスト容積を構築する際の精度を高めるために,オクルージョンマップを導入する。
具体的には,まず粗異性推定ネットワークを通して粗異性マップを得る。
そして、初期差分マップに基づいて、サイドビューのサブアパーチャ画像(SAI)をセンタービューにワープする。
次に、歪んだSAIと中央SAIとの間の光一貫性制約を提案し、各SAIに対して閉塞マップを生成する。
最後に, 粗分散マップとオクルージョンマップを導入し, オクルージョン・アウェア・コストボリュームの構築を行い, 洗練された不一致推定ネットワークによりより正確な不一致マップが得られるようにした。
広範な実験により本手法の有効性が実証された。
本手法は最先端の手法と比較して精度と効率のバランスが良く,HCI 4D ベンチマークで発表された手法のうち,MSE と Q25 の指標が第一位である。
提案手法のコードとモデルはhttps://github.com/chaowentao/occcasnetで入手できる。
関連論文リスト
- ScaleDepth: Decomposing Metric Depth Estimation into Scale Prediction and Relative Depth Estimation [62.600382533322325]
本研究では,新しい単分子深度推定法であるScaleDepthを提案する。
提案手法は,距離深度をシーンスケールと相対深度に分解し,セマンティック・アウェア・スケール予測モジュールを用いて予測する。
本手法は,室内と屋外の両方のシーンを統一した枠組みで距離推定する。
論文 参考訳(メタデータ) (2024-07-11T05:11:56Z) - Unsupervised Light Field Depth Estimation via Multi-view Feature
Matching with Occlusion Prediction [15.421219881815956]
監督訓練に十分な深度ラベルを得ることは費用がかかる。
本稿では,LF画像から深度を推定するための教師なしフレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-20T06:11:17Z) - Robust and accurate depth estimation by fusing LiDAR and Stereo [8.85338187686374]
本稿では,LiDARとステレオカメラを融合させる高精度でロバストな手法を提案する。
この方法は、LiDARとステレオカメラの利点を完全に組み合わせている。
提案したパイプラインをKITTIベンチマークで評価した。
論文 参考訳(メタデータ) (2022-07-13T11:55:15Z) - Non-parametric Depth Distribution Modelling based Depth Inference for
Multi-view Stereo [43.415242967722804]
最近のコストボリュームピラミッドに基づくディープニューラルネットワークは、多視点ステレオからの深度推論に高解像度の画像を効率的に活用する可能性を解き放った。
一般に、これらのアプローチは各ピクセルの深さが一様分布に従うと仮定する。
本研究では,非パラメトリック深度分布モデルを用いて,一様および多モード分布の画素を扱うコストボリュームを構築することを提案する。
論文 参考訳(メタデータ) (2022-05-08T05:13:04Z) - Stereo Matching with Cost Volume based Sparse Disparity Propagation [27.74131924190943]
本稿では,コストの一致量とスパースマッチング特徴点に基づく一般的なステレオマッチングを改善するための,シンプルながら斬新な手法を提案する。
提案手法は,最先端手法に匹敵する有望な性能を実現する。
論文 参考訳(メタデータ) (2022-01-28T05:20:41Z) - Cascaded Residual Density Network for Crowd Counting [63.714719914701014]
本研究では, 群衆数に対する高品質な密度マップを高精度に作成するために, 粗大なアプローチで新しいカスケード残差密度ネットワーク(CRDNet)を提案する。
新たな局所的カウント損失が示され、群衆カウントの精度が向上する。
論文 参考訳(メタデータ) (2021-07-29T03:07:11Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - An Adaptive Framework for Learning Unsupervised Depth Completion [59.17364202590475]
カラー画像から高密度深度マップとそれに伴うスパース深度測定を推定する手法を提案する。
正規化とコビジュアライゼーションは、モデルの適合度とデータによって関連付けられており、単一のフレームワークに統合可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T02:27:55Z) - CFNet: Cascade and Fused Cost Volume for Robust Stereo Matching [27.313740022587442]
ステレオマッチングネットワークのロバスト性を改善するために,カスケードとフューズドのコストボリュームに基づくネットワークCFNetを提案する。
分散に基づく不確実性推定を用いて、次の段階の差分探索空間を適応的に調整する。
提案手法は、最先端の総合性能を達成し、Robust Vision Challenge 2020のステレオタスクで1位を獲得します。
論文 参考訳(メタデータ) (2021-04-09T11:38:59Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z) - Direct Depth Learning Network for Stereo Matching [79.3665881702387]
ステレオマッチングのための新しいダイレクトディープス学習ネットワーク(DDL-Net)が設計されている。
DDL-Netは、粗度推定段階と適応勾配深度補正段階の2段階からなる。
我々は,DDL-NetがSceneFlowデータセットで25%,DrivingStereoデータセットで12%の平均的な改善を実現していることを示す。
論文 参考訳(メタデータ) (2020-12-10T10:33:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。