論文の概要: Boundary-induced and scene-aggregated network for monocular depth
prediction
- arxiv url: http://arxiv.org/abs/2102.13258v1
- Date: Fri, 26 Feb 2021 01:43:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-01 14:05:41.269393
- Title: Boundary-induced and scene-aggregated network for monocular depth
prediction
- Title(参考訳): 単眼深度予測のための境界誘起およびシーン集約ネットワーク
- Authors: Feng Xue and Junfeng Cao and Yu Zhou and Fei Sheng and Yankai Wang and
Anlong Ming
- Abstract要約: 本稿では,1枚のRGB画像の深度を推定するための境界誘導・Scene-aggregated Network (BS-Net)を提案する。
NYUD v2データセットとxffthe iBims-1データセットに関するいくつかの実験結果は、提案手法の最先端性能を示している。
- 参考スコア(独自算出の注目度): 20.358133522462513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular depth prediction is an important task in scene understanding. It
aims to predict the dense depth of a single RGB image. With the development of
deep learning, the performance of this task has made great improvements.
However, two issues remain unresolved: (1) The deep feature encodes the wrong
farthest region in a scene, which leads to a distorted 3D structure of the
predicted depth; (2) The low-level features are insufficient utilized, which
makes it even harder to estimate the depth near the edge with sudden depth
change. To tackle these two issues, we propose the Boundary-induced and
Scene-aggregated network (BS-Net). In this network, the Depth Correlation
Encoder (DCE) is first designed to obtain the contextual correlations between
the regions in an image, and perceive the farthest region by considering the
correlations. Meanwhile, the Bottom-Up Boundary Fusion (BUBF) module is
designed to extract accurate boundary that indicates depth change. Finally, the
Stripe Refinement module (SRM) is designed to refine the dense depth induced by
the boundary cue, which improves the boundary accuracy of the predicted depth.
Several experimental results on the NYUD v2 dataset and \xff{the iBims-1
dataset} illustrate the state-of-the-art performance of the proposed approach.
And the SUN-RGBD dataset is employed to evaluate the generalization of our
method. Code is available at https://github.com/XuefengBUPT/BS-Net.
- Abstract(参考訳): 単眼深度予測はシーン理解において重要な課題である。
単一のRGB画像の濃密な深さを予測することを目的としている。
ディープラーニングの開発により、このタスクのパフォーマンスは大幅に改善されました。
しかし,(1) 深い特徴がシーンの最も遠い領域を符号化し, 予測された深さの歪んだ3次元構造に繋がる。(2) 低レベルの特徴が十分に活用されていないため, 急激な深さ変化で縁付近の深さを推定することがさらに困難になる。
そこで,Boundary-induced and Scene-aggregated Network (BS-Net) を提案する。
このネットワークでは、深さ相関エンコーダ(DCE)は、最初に画像内の領域間のコンテキスト相関を取得し、相関を考慮して最も遠い領域を知覚するように設計されている。
一方、ボトムアップ境界融合(BUBF)モジュールは、深さ変化を示す正確な境界を抽出するために設計されている。
最後に、Stripe Refinement Module (SRM) は、境界キューによって誘導される密度の深い深さを改良するために設計され、予測された深さの境界精度が向上する。
NYUD v2 データセットと \xff{the iBims-1 データセットに関するいくつかの実験結果は、提案手法の最先端性能を示している。
また,SUN-RGBDデータセットを用いて,この手法の一般化を評価する。
コードはhttps://github.com/XuefengBUPT/BS-Netで入手できる。
関連論文リスト
- Progressive Depth Decoupling and Modulating for Flexible Depth Completion [28.693100885012008]
画像誘導深度補正は、疎LiDARデータとRGB画像から高密度深度マップを生成することを目的としている。
近年の手法では,2つのサブタスク(深度離散化と確率予測)で分類問題として再検討し,有望な性能を示した。
本研究では, 深度範囲をビンに漸進的に分離し, マルチスケールの深度マップを適応的に生成するプログレッシブ・ディープ・デカップリング・変調ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-15T13:45:33Z) - RGB-Depth Fusion GAN for Indoor Depth Completion [29.938869342958125]
本稿では,RGBと不完全深度画像のペアを入力として,高密度で完成度の高い深度マップを推定する,新しい2分岐エンドツーエンド融合ネットワークを設計する。
あるブランチでは、RGB画像を微細なテクスチャ化深度マップに転送するRGB深度融合GANを提案する。
他方のブランチでは、W-AdaINという名前の適応核融合モジュールを採用し、2つのブランチにまたがる特徴を伝播させます。
論文 参考訳(メタデータ) (2022-03-21T10:26:38Z) - Monocular Depth Estimation with Sharp Boundary [4.873879696568641]
境界のぼかし問題は、まず、境界情報と構造情報を含む低レベルな特徴が、畳み込み過程の間、より深いネットワークで失われる、という2つの要因によって引き起こされる。
第2に、バックプロパゲーションにおいて、境界領域のわずかな部分による境界領域の誤差を無視する。
本研究では,境界の深さ値の影響に注意を払うために,境界対応深度損失関数を提案する。
論文 参考訳(メタデータ) (2021-10-12T10:55:12Z) - Depth Completion using Plane-Residual Representation [84.63079529738924]
深度情報を最も近い深度平面ラベル$p$と残値$r$で解釈する新しい方法を紹介し,これをPlane-Residual (PR)表現と呼ぶ。
PR表現で深度情報を解釈し,それに対応する深度補完網を用いて,高速な計算により深度補完性能を向上させることができた。
論文 参考訳(メタデータ) (2021-04-15T10:17:53Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - Direct Depth Learning Network for Stereo Matching [79.3665881702387]
ステレオマッチングのための新しいダイレクトディープス学習ネットワーク(DDL-Net)が設計されている。
DDL-Netは、粗度推定段階と適応勾配深度補正段階の2段階からなる。
我々は,DDL-NetがSceneFlowデータセットで25%,DrivingStereoデータセットで12%の平均的な改善を実現していることを示す。
論文 参考訳(メタデータ) (2020-12-10T10:33:57Z) - Deep Multi-view Depth Estimation with Predicted Uncertainty [11.012201499666503]
我々は、高密度光フローネットワークを用いて対応を計算し、点雲を三角測量して初期深度マップを得る。
三角測量の精度をさらに高めるため,画像の文脈に基づく初期深度マップを最適化する深度補正ネットワーク(DRN)を導入する。
論文 参考訳(メタデータ) (2020-11-19T00:22:09Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - Guiding Monocular Depth Estimation Using Depth-Attention Volume [38.92495189498365]
本研究では,特に屋内環境に広く分布する平面構造を優先するための奥行き推定法を提案する。
2つのポピュラーな屋内データセットであるNYU-Depth-v2とScanNetの実験により,本手法が最先端の深度推定結果を実現することを示す。
論文 参考訳(メタデータ) (2020-04-06T15:45:52Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。