論文の概要: Depth Completion Using a View-constrained Deep Prior
- arxiv url: http://arxiv.org/abs/2001.07791v3
- Date: Tue, 1 Dec 2020 22:07:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-08 00:19:56.585325
- Title: Depth Completion Using a View-constrained Deep Prior
- Title(参考訳): ビュー制約付き深度事前処理による深度補完
- Authors: Pallabi Ghosh, Vibhav Vineet, Larry S. Davis, Abhinav Shrivastava,
Sudipta Sinha, Neel Joshi
- Abstract要約: 近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
- 参考スコア(独自算出の注目度): 73.21559000917554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has shown that the structure of convolutional neural networks
(CNNs) induces a strong prior that favors natural images. This prior, known as
a deep image prior (DIP), is an effective regularizer in inverse problems such
as image denoising and inpainting. We extend the concept of the DIP to depth
images. Given color images and noisy and incomplete target depth maps, we
optimize a randomly-initialized CNN model to reconstruct a depth map restored
by virtue of using the CNN network structure as a prior combined with a
view-constrained photo-consistency loss. This loss is computed using images
from a geometrically calibrated camera from nearby viewpoints. We apply this
deep depth prior for inpainting and refining incomplete and noisy depth maps
within both binocular and multi-view stereo pipelines. Our quantitative and
qualitative evaluation shows that our refined depth maps are more accurate and
complete, and after fusion, produces dense 3D models of higher quality.
- Abstract(参考訳): 近年の研究では、畳み込みニューラルネットワーク(cnns)の構造が自然画像を好む強い先行性を引き起こすことが示されている。
この前処理はdip(deep image prior)と呼ばれ、画像のデノイジングやインパインティングといった逆問題において有効な正則化器である。
DIPの概念を深度画像に拡張する。
色画像と雑音と不完全な目標深度マップを考慮し、ランダムに初期化したCNNモデルを最適化し、CNNネットワーク構造を事前に使用することにより復元された深度マップをビュー制約の写真一貫性損失と組み合わせて再構築する。
この損失は、近くの視点から幾何学的に調整されたカメラの画像を用いて計算される。
両眼および多視点ステレオパイプライン内における不完全・雑音深度マップの塗布および精製に先立って,この深度を適用した。
定量的・定性的な評価から, 精密な深度図はより正確で完全であり, 融合後, 高画質の密集した3dモデルが得られた。
関連論文リスト
- Refinement of Monocular Depth Maps via Multi-View Differentiable Rendering [4.717325308876748]
本稿では,複数の画像から一貫した詳細な深度マップを生成するための新しい手法を提案する。
我々は、位相的に完全だが計量的に不正確な深度マップを生成する単眼深度推定の進歩を活用する。
提案手法は,高密度で詳細で高品質な深度マップを作成でき,また屋内シナリオの挑戦も可能であり,最先端の深度復元手法よりも優れている。
論文 参考訳(メタデータ) (2024-10-04T18:50:28Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - Depth Estimation and Image Restoration by Deep Learning from Defocused
Images [2.6599014990168834]
2-headed Depth Estimation and Deblurring Network (2HDED:NET)は、Defocus(DFD)ネットワークからの従来のDepthを拡張し、deepブランチと同じエンコーダを共有するdeblurringブランチを持つ。
提案手法は,室内と屋外のシーンの2つのベンチマーク(NYU-v2とMake3D)で試験に成功した。
論文 参考訳(メタデータ) (2023-02-21T15:28:42Z) - VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction [71.83308989022635]
本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-08-19T11:33:58Z) - RigNet: Repetitive Image Guided Network for Depth Completion [20.66405067066299]
近年のアプローチは、高密度な結果を予測するためのイメージガイド学習に重点を置いている。
ぼやけたイメージガイダンスとオブジェクト構造は、まだイメージガイドされたフレームワークのパフォーマンスを妨げている。
画像案内ネットワークにおける反復的な設計を探索し,徐々に深度値の回復を図る。
提案手法は,NYUv2データセットの最先端化を実現し,提出時のKITTIベンチマークで1位にランクインする。
論文 参考訳(メタデータ) (2021-07-29T08:00:33Z) - Learning to Recover 3D Scene Shape from a Single Image [98.20106822614392]
まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
論文 参考訳(メタデータ) (2020-12-17T02:35:13Z) - Deep Multi-view Depth Estimation with Predicted Uncertainty [11.012201499666503]
我々は、高密度光フローネットワークを用いて対応を計算し、点雲を三角測量して初期深度マップを得る。
三角測量の精度をさらに高めるため,画像の文脈に基づく初期深度マップを最適化する深度補正ネットワーク(DRN)を導入する。
論文 参考訳(メタデータ) (2020-11-19T00:22:09Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。