論文の概要: Guiding Monocular Depth Estimation Using Depth-Attention Volume
- arxiv url: http://arxiv.org/abs/2004.02760v2
- Date: Sun, 16 Aug 2020 16:22:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 07:04:17.845298
- Title: Guiding Monocular Depth Estimation Using Depth-Attention Volume
- Title(参考訳): 奥行き体積を用いた単眼深度推定
- Authors: Lam Huynh, Phong Nguyen-Ha, Jiri Matas, Esa Rahtu, Janne Heikkila
- Abstract要約: 本研究では,特に屋内環境に広く分布する平面構造を優先するための奥行き推定法を提案する。
2つのポピュラーな屋内データセットであるNYU-Depth-v2とScanNetの実験により,本手法が最先端の深度推定結果を実現することを示す。
- 参考スコア(独自算出の注目度): 38.92495189498365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recovering the scene depth from a single image is an ill-posed problem that
requires additional priors, often referred to as monocular depth cues, to
disambiguate different 3D interpretations. In recent works, those priors have
been learned in an end-to-end manner from large datasets by using deep neural
networks. In this paper, we propose guiding depth estimation to favor planar
structures that are ubiquitous especially in indoor environments. This is
achieved by incorporating a non-local coplanarity constraint to the network
with a novel attention mechanism called depth-attention volume (DAV).
Experiments on two popular indoor datasets, namely NYU-Depth-v2 and ScanNet,
show that our method achieves state-of-the-art depth estimation results while
using only a fraction of the number of parameters needed by the competing
methods.
- Abstract(参考訳): 一つの画像からシーン深度を復元することは、異なる3D解釈を曖昧にするために、追加の事前(しばしば単眼深度と呼ばれる)を必要とする不適切な問題である。
近年の研究では、深層ニューラルネットワークを用いて、大規模なデータセットからエンドツーエンドで学習されている。
本稿では,特に室内環境においてユビキタスな平面構造を好むため,深さ推定の指針を提案する。
これは、ネットワークに非局所的なコプラナリティ制約を組み込むことで実現され、davと呼ばれる新しい注意機構が組み込まれている。
室内における2つの一般的なデータセット、すなわちNYU-Depth-v2とScanNetの実験により,本手法は競合する手法に必要なパラメータのごく一部を使用しながら,最先端の深度推定結果が得られることを示した。
関連論文リスト
- MonoCD: Monocular 3D Object Detection with Complementary Depths [9.186673054867866]
深度推定は単分子3次元物体検出に不可欠だが挑戦的なサブタスクである。
2つの新しい設計で深度の相補性を高めることを提案する。
KITTIベンチマーク実験により, 余分なデータを導入することなく, 最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2024-04-04T03:30:49Z) - NDDepth: Normal-Distance Assisted Monocular Depth Estimation [22.37113584192617]
単眼深度推定のための新しい物理(幾何学)駆動深度学習フレームワークを提案する。
そこで我々は,各位置における深度を導出するために,画素レベル表面の正規化と平面-オリジン距離を出力する新しい正規距離ヘッドを提案する。
我々は,深度不確実性に応じて相補的に深度を洗練する効果的なコントラッシブ・イテレーティブ・リファインメント・モジュールを開発した。
論文 参考訳(メタデータ) (2023-09-19T13:05:57Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Learning Occlusion-Aware Coarse-to-Fine Depth Map for Self-supervised
Monocular Depth Estimation [11.929584800629673]
自己教師付き単眼深度推定のためのOcclusion-aware Coarse-to-Fine Depth Mapを学習するための新しいネットワークを提案する。
提案したOCFD-Netは,粗度深度マップの学習に離散深度制約を用いるだけでなく,シーン深度残差の学習にも連続深度制約を用いる。
論文 参考訳(メタデータ) (2022-03-21T12:43:42Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - Monocular Depth Estimation Primed by Salient Point Detection and
Normalized Hessian Loss [43.950140695759764]
本稿では,単眼深度推定のための高精度で軽量なフレームワークを提案する。
深度方向のスケーリングとせん断に不変な正規化ヘッセン損失項を導入し,精度を著しく向上させることを示した。
提案手法は,NYU-Depth-v2 と KITTI の3.1-38.4 倍小さいモデルを用いて,ベースライン手法よりもパラメータ数が多い場合の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-08-25T07:51:09Z) - VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction [71.83308989022635]
本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-08-19T11:33:58Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - Deep Multi-view Depth Estimation with Predicted Uncertainty [11.012201499666503]
我々は、高密度光フローネットワークを用いて対応を計算し、点雲を三角測量して初期深度マップを得る。
三角測量の精度をさらに高めるため,画像の文脈に基づく初期深度マップを最適化する深度補正ネットワーク(DRN)を導入する。
論文 参考訳(メタデータ) (2020-11-19T00:22:09Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。