論文の概要: Self-Supervised Light Field Depth Estimation Using Epipolar Plane Images
- arxiv url: http://arxiv.org/abs/2203.15171v1
- Date: Tue, 29 Mar 2022 01:18:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 08:32:14.902288
- Title: Self-Supervised Light Field Depth Estimation Using Epipolar Plane Images
- Title(参考訳): エピポーラ平面画像を用いた自己監督光深度推定
- Authors: Kunyuan Li, Jun Zhang, Jun Gao, Meibin Qi
- Abstract要約: 光深度推定のための自己教師付き学習フレームワークを提案する。
提案手法は,他の最先端手法と比較して,実世界のシナリオにおいて高品質な結果を得ることができる。
- 参考スコア(独自算出の注目度): 13.137957601685041
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Exploiting light field data makes it possible to obtain dense and accurate
depth map. However, synthetic scenes with limited disparity range cannot
contain the diversity of real scenes. By training in synthetic data, current
learning-based methods do not perform well in real scenes. In this paper, we
propose a self-supervised learning framework for light field depth estimation.
Different from the existing end-to-end training methods using disparity label
per pixel, our approach implements network training by estimating EPI disparity
shift after refocusing, which extends the disparity range of epipolar lines. To
reduce the sensitivity of EPI to noise, we propose a new input mode called
EPI-Stack, which stacks EPIs in the view dimension. This method is less
sensitive to noise scenes than traditional input mode and improves the
efficiency of estimation. Compared with other state-of-the-art methods, the
proposed method can also obtain higher quality results in real-world scenarios,
especially in the complex occlusion and depth discontinuity.
- Abstract(参考訳): 光場データを利用することで、密集した正確な深度マップを得ることができる。
しかし、異なる範囲の合成シーンは実際のシーンの多様性を含まない。
合成データのトレーニングによって、現在の学習手法は実際のシーンではうまく機能しない。
本稿では,光深度推定のための自己教師型学習フレームワークを提案する。
本手法は,1ピクセルあたりの差分ラベルを用いた既存のエンドツーエンドトレーニング方法と異なり,再焦点後のEPI差分シフトを推定してネットワークトレーニングを行う。
ノイズに対するEPIの感度を低減するため,ビュー次元にEPIを積み重ねるEPI-Stackと呼ばれる新しい入力モードを提案する。
本手法は従来の入力モードよりもノイズシーンに対する感度が低く,推定効率が向上する。
他の最先端手法と比較して,提案手法は実世界のシナリオ,特に複雑閉塞や深度不連続において,高品質な結果を得ることができる。
関連論文リスト
- Revisiting Disparity from Dual-Pixel Images: Physics-Informed Lightweight Depth Estimation [3.6337378417255177]
完成度に基づくネットワークに基づく軽量な分散度推定手法を提案する。
DP固有の相違誤差をパラメトリックにモデル化し、トレーニング中のサンプリングに使用することにより、DPのユニークな特性を取得する。
その結果,提案手法はシステム全体の規模を従来の手法の1/5に減らし,最先端の成果を得た。
論文 参考訳(メタデータ) (2024-11-06T09:03:53Z) - Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Learning to Adapt CLIP for Few-Shot Monocular Depth Estimation [31.34615135846137]
単眼深度推定に視覚言語モデルを適用することを学習する,数発のショットベース手法を提案する。
具体的には、異なるシーンに異なる深度ビンを割り当て、推論中にモデルによって選択できる。
トレーニング用シーンあたりのイメージが1つしかないため、NYU V2とKITTIデータセットによる大規模な実験結果から、我々の手法が従来の最先端の手法を最大10.6%上回っていることが示された。
論文 参考訳(メタデータ) (2023-11-02T06:56:50Z) - Single Image Depth Prediction Made Better: A Multivariate Gaussian Take [163.14849753700682]
本稿では,画素ごとの深度を連続的にモデル化する手法を提案する。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
論文 参考訳(メタデータ) (2023-03-31T16:01:03Z) - RA-Depth: Resolution Adaptive Self-Supervised Monocular Depth Estimation [27.679479140943503]
本研究では,シーン深さのスケール不変性を学習し,自己教師付き単眼深度推定法(RA-Depth)を提案する。
RA-Depthは最先端の性能を達成し、解像度適応の優れた能力を示す。
論文 参考訳(メタデータ) (2022-07-25T08:49:59Z) - Light Field Depth Estimation via Stitched Epipolar Plane Images [45.5616314866457]
本研究では,スライス計算を強化するための縫合EPI(SEPI)の概念を提案する。
SEPIは、同じ3Dポイントに対応する異なるEPIから線をシフトして連結することで、これを達成します。
また,テクスチャレス領域における深度推定の改善を目的とした深度伝搬戦略を提案する。
論文 参考訳(メタデータ) (2022-03-29T02:43:40Z) - Occlusion-aware Unsupervised Learning of Depth from 4-D Light Fields [50.435129905215284]
4次元光場処理と解析のための教師なし学習に基づく深度推定法を提案する。
光場データの特異な幾何学構造に関する基礎知識に基づいて,光場ビューのサブセット間の角度コヒーレンスを探索し,深度マップを推定する。
提案手法は,従来の手法と同等の精度で計算コストを低減した深度マップを作成できる。
論文 参考訳(メタデータ) (2021-06-06T06:19:50Z) - An Adaptive Framework for Learning Unsupervised Depth Completion [59.17364202590475]
カラー画像から高密度深度マップとそれに伴うスパース深度測定を推定する手法を提案する。
正規化とコビジュアライゼーションは、モデルの適合度とデータによって関連付けられており、単一のフレームワークに統合可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T02:27:55Z) - Towards Unpaired Depth Enhancement and Super-Resolution in the Wild [121.96527719530305]
最先端のデータ駆動による深度マップの超解像法は、同じシーンの低解像度と高解像度の深度マップの登録ペアに依存している。
未経験データからの学習に基づく深度マップの強化について考察する。
論文 参考訳(メタデータ) (2021-05-25T16:19:16Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。