論文の概要: Single Image Depth Estimation Trained via Depth from Defocus Cues
- arxiv url: http://arxiv.org/abs/2001.05036v1
- Date: Tue, 14 Jan 2020 20:22:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 12:51:08.905931
- Title: Single Image Depth Estimation Trained via Depth from Defocus Cues
- Title(参考訳): Defocus Cues から深度を学習した単一画像深度推定
- Authors: Shir Gur, Lior Wolf
- Abstract要約: 単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
- 参考スコア(独自算出の注目度): 105.67073923825842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating depth from a single RGB images is a fundamental task in computer
vision, which is most directly solved using supervised deep learning. In the
field of unsupervised learning of depth from a single RGB image, depth is not
given explicitly. Existing work in the field receives either a stereo pair, a
monocular video, or multiple views, and, using losses that are based on
structure-from-motion, trains a depth estimation network. In this work, we
rely, instead of different views, on depth from focus cues. Learning is based
on a novel Point Spread Function convolutional layer, which applies location
specific kernels that arise from the Circle-Of-Confusion in each image
location. We evaluate our method on data derived from five common datasets for
depth estimation and lightfield images, and present results that are on par
with supervised methods on KITTI and Make3D datasets and outperform
unsupervised learning approaches. Since the phenomenon of depth from defocus is
not dataset specific, we hypothesize that learning based on it would overfit
less to the specific content in each dataset. Our experiments show that this is
indeed the case, and an estimator learned on one dataset using our method
provides better results on other datasets, than the directly supervised
methods.
- Abstract(参考訳): 単一のRGB画像から深度を推定することはコンピュータビジョンの基本課題であり、教師付きディープラーニングを用いて最も直接的に解決される。
単一のrgb画像からの深さの教師なし学習の分野では、深さは明示的に与えられない。
フィールド内の既存の作業は、ステレオペア、モノクロビデオ、または複数のビューを受け取り、構造からの移動に基づく損失を使用して、深さ推定ネットワークを訓練する。
この作業では、異なる視点ではなく、フォーカスキューからの深さに依存します。
学習は、新しいポイントスプレッド関数の畳み込み層に基づいており、各画像位置におけるサークル・オフ・コンフュージョンから生じる位置特定カーネルを適用している。
深度推定と光場画像のための5つの共通データセットから抽出したデータについて評価し,KITTIおよびMake3Dデータセットの教師あり手法と同等な結果を得た。
デフォーカスによる深さの現象はデータセットに特有ではないので、それに基づく学習は各データセットの特定のコンテンツに過剰に適合すると仮定する。
実験の結果,これは事実であり,本手法を用いて学習した推定器は直接教師付き手法よりも,他のデータセットに対してより良い結果を与えることがわかった。
関連論文リスト
- SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Multi-task Learning for Monocular Depth and Defocus Estimations with
Real Images [3.682618267671887]
既存の手法の多くは、深度推定とデフォーカス推定を2つの別々のタスクとして扱い、それら間の強いつながりを無視している。
本稿では、2つのデコーダを持つエンコーダからなるマルチタスク学習ネットワークを提案し、単一の焦点画像から深度とデフォーカスマップを推定する。
我々の深度とデフォーカス推定は、他の最先端アルゴリズムよりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-08-21T08:59:56Z) - Monocular Depth Estimation Using Cues Inspired by Biological Vision
Systems [22.539300644593936]
単眼深度推定(MDE)は、シーンのRGB画像を同じカメラビューから画素幅の深度マップに変換することを目的としている。
MDEタスクの一部は、画像内のどの視覚的手がかりを深度推定に使用できるか、どのように使うかを学ぶことである。
モデルに視覚的キュー情報を明示的に注入することは深度推定に有用であることを示す。
論文 参考訳(メタデータ) (2022-04-21T19:42:36Z) - P3Depth: Monocular Depth Estimation with a Piecewise Planarity Prior [133.76192155312182]
本研究では,コプラナー画素からの情報を選択的に活用して予測深度を改善する手法を提案する。
本手法の広範な評価により, 教師付き単分子深度推定法において, 新たな手法の確立が期待できる。
論文 参考訳(メタデータ) (2022-04-05T10:03:52Z) - 360 Depth Estimation in the Wild -- The Depth360 Dataset and the SegFuse
Network [35.03201732370496]
全方位画像からの一視点深度推定は、自律運転やシーン再構築といった幅広い応用で人気を博している。
本研究ではまず,トレーニングデータ問題に対処するため,Depth360と呼ばれるさまざまな設定の大規模データセットを構築した。
次に、人間の眼を模倣してデータセットから効果的に学習する、エンドツーエンドのマルチタスク学習ネットワークであるSegFuseを提案する。
論文 参考訳(メタデータ) (2022-02-16T11:56:31Z) - Learning Multi-modal Information for Robust Light Field Depth Estimation [32.64928379844675]
focalスタックからの既存の学習に基づく深さ推定手法は、デフォーカスのぼやけのため、準最適性能に繋がる。
堅牢な光界深度推定のためのマルチモーダル学習法を提案する。
本手法は,2つの光場データセットにおいて,既存の代表手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2021-04-13T06:51:27Z) - Dual Pixel Exploration: Simultaneous Depth Estimation and Image
Restoration [77.1056200937214]
本研究では,ぼかしと深度情報をリンクするDPペアの形成について検討する。
本稿では,画像の深さを共同で推定し,復元するためのエンドツーエンドDDDNet(DPベースのDepth and De Network)を提案する。
論文 参考訳(メタデータ) (2020-12-01T06:53:57Z) - Learning a Geometric Representation for Data-Efficient Depth Estimation
via Gradient Field and Contrastive Loss [29.798579906253696]
本研究では、コンブネットがラベルのない画像で幾何学的情報を抽出するのを支援するために、運動量差の少ない勾配に基づく自己教師付き学習アルゴリズムを提案する。
提案手法は,従来の自己教師付き学習アルゴリズムよりも優れ,ラベル付きデータの効率を3倍に向上させる。
論文 参考訳(メタデータ) (2020-11-06T06:47:19Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - DiverseDepth: Affine-invariant Depth Prediction Using Diverse Data [110.29043712400912]
本稿では,アフィン変換に至るまでの多様なシーンにおける高品質な深度を予測できるモノクロ画像を用いた深度推定手法を提案する。
実験の結果,提案手法は,ゼロショットテスト設定と大差で8つのデータセットの先行手法より優れていた。
論文 参考訳(メタデータ) (2020-02-03T05:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。