論文の概要: Boundary-induced and scene-aggregated network for monocular depth
prediction
- arxiv url: http://arxiv.org/abs/2102.13258v1
- Date: Fri, 26 Feb 2021 01:43:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-01 14:05:41.269393
- Title: Boundary-induced and scene-aggregated network for monocular depth
prediction
- Title(参考訳): 単眼深度予測のための境界誘起およびシーン集約ネットワーク
- Authors: Feng Xue and Junfeng Cao and Yu Zhou and Fei Sheng and Yankai Wang and
Anlong Ming
- Abstract要約: 本稿では,1枚のRGB画像の深度を推定するための境界誘導・Scene-aggregated Network (BS-Net)を提案する。
NYUD v2データセットとxffthe iBims-1データセットに関するいくつかの実験結果は、提案手法の最先端性能を示している。
- 参考スコア(独自算出の注目度): 20.358133522462513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular depth prediction is an important task in scene understanding. It
aims to predict the dense depth of a single RGB image. With the development of
deep learning, the performance of this task has made great improvements.
However, two issues remain unresolved: (1) The deep feature encodes the wrong
farthest region in a scene, which leads to a distorted 3D structure of the
predicted depth; (2) The low-level features are insufficient utilized, which
makes it even harder to estimate the depth near the edge with sudden depth
change. To tackle these two issues, we propose the Boundary-induced and
Scene-aggregated network (BS-Net). In this network, the Depth Correlation
Encoder (DCE) is first designed to obtain the contextual correlations between
the regions in an image, and perceive the farthest region by considering the
correlations. Meanwhile, the Bottom-Up Boundary Fusion (BUBF) module is
designed to extract accurate boundary that indicates depth change. Finally, the
Stripe Refinement module (SRM) is designed to refine the dense depth induced by
the boundary cue, which improves the boundary accuracy of the predicted depth.
Several experimental results on the NYUD v2 dataset and \xff{the iBims-1
dataset} illustrate the state-of-the-art performance of the proposed approach.
And the SUN-RGBD dataset is employed to evaluate the generalization of our
method. Code is available at https://github.com/XuefengBUPT/BS-Net.
- Abstract(参考訳): 単眼深度予測はシーン理解において重要な課題である。
単一のRGB画像の濃密な深さを予測することを目的としている。
ディープラーニングの開発により、このタスクのパフォーマンスは大幅に改善されました。
しかし,(1) 深い特徴がシーンの最も遠い領域を符号化し, 予測された深さの歪んだ3次元構造に繋がる。(2) 低レベルの特徴が十分に活用されていないため, 急激な深さ変化で縁付近の深さを推定することがさらに困難になる。
そこで,Boundary-induced and Scene-aggregated Network (BS-Net) を提案する。
このネットワークでは、深さ相関エンコーダ(DCE)は、最初に画像内の領域間のコンテキスト相関を取得し、相関を考慮して最も遠い領域を知覚するように設計されている。
一方、ボトムアップ境界融合(BUBF)モジュールは、深さ変化を示す正確な境界を抽出するために設計されている。
最後に、Stripe Refinement Module (SRM) は、境界キューによって誘導される密度の深い深さを改良するために設計され、予測された深さの境界精度が向上する。
NYUD v2 データセットと \xff{the iBims-1 データセットに関するいくつかの実験結果は、提案手法の最先端性能を示している。
また,SUN-RGBDデータセットを用いて,この手法の一般化を評価する。
コードはhttps://github.com/XuefengBUPT/BS-Netで入手できる。
関連論文リスト
- Deep Neural Networks for Accurate Depth Estimation with Latent Space Features [0.0]
本研究では,深部畳み込みニューラルネットワークにおける潜時空間特徴を利用した新しい深度推定フレームワークを提案する。
提案モデルでは,2つのエンコーダ・デコーダアーキテクチャを特徴とし,色から深度への変換と深度への変換が可能である。
フレームワークはNYU Depth V2データセットを使用して徹底的にテストされている。
論文 参考訳(メタデータ) (2025-02-17T13:11:35Z) - DepthLab: From Partial to Complete [80.58276388743306]
不足する値は、幅広いアプリケーションにわたる深度データにとって共通の課題である。
この作業は、イメージ拡散プリエントを利用した基礎深度塗装モデルであるDepthLabと、このギャップを埋めるものだ。
提案手法は,3Dシーンのインペイント,テキストから3Dシーン生成,DUST3Rによるスパースビュー再構成,LiDAR深度補完など,様々なダウンストリームタスクにおいて有用であることを示す。
論文 参考訳(メタデータ) (2024-12-24T04:16:38Z) - DCPI-Depth: Explicitly Infusing Dense Correspondence Prior to Unsupervised Monocular Depth Estimation [17.99904937160487]
DCPI-Depthは、これらの革新的なコンポーネントをすべて組み込んで、2つの双方向および協調的なストリームを結合するフレームワークである。
複数の公開データセットにまたがる最先端のパフォーマンスと一般化性を実現し、既存のすべての先行技術を上回っている。
論文 参考訳(メタデータ) (2024-05-27T08:55:17Z) - Progressive Depth Decoupling and Modulating for Flexible Depth Completion [28.693100885012008]
画像誘導深度補正は、疎LiDARデータとRGB画像から高密度深度マップを生成することを目的としている。
近年の手法では,2つのサブタスク(深度離散化と確率予測)で分類問題として再検討し,有望な性能を示した。
本研究では, 深度範囲をビンに漸進的に分離し, マルチスケールの深度マップを適応的に生成するプログレッシブ・ディープ・デカップリング・変調ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-15T13:45:33Z) - RGB-Depth Fusion GAN for Indoor Depth Completion [29.938869342958125]
本稿では,RGBと不完全深度画像のペアを入力として,高密度で完成度の高い深度マップを推定する,新しい2分岐エンドツーエンド融合ネットワークを設計する。
あるブランチでは、RGB画像を微細なテクスチャ化深度マップに転送するRGB深度融合GANを提案する。
他方のブランチでは、W-AdaINという名前の適応核融合モジュールを採用し、2つのブランチにまたがる特徴を伝播させます。
論文 参考訳(メタデータ) (2022-03-21T10:26:38Z) - Monocular Depth Estimation with Sharp Boundary [4.873879696568641]
境界のぼかし問題は、まず、境界情報と構造情報を含む低レベルな特徴が、畳み込み過程の間、より深いネットワークで失われる、という2つの要因によって引き起こされる。
第2に、バックプロパゲーションにおいて、境界領域のわずかな部分による境界領域の誤差を無視する。
本研究では,境界の深さ値の影響に注意を払うために,境界対応深度損失関数を提案する。
論文 参考訳(メタデータ) (2021-10-12T10:55:12Z) - Depth Completion using Plane-Residual Representation [84.63079529738924]
深度情報を最も近い深度平面ラベル$p$と残値$r$で解釈する新しい方法を紹介し,これをPlane-Residual (PR)表現と呼ぶ。
PR表現で深度情報を解釈し,それに対応する深度補完網を用いて,高速な計算により深度補完性能を向上させることができた。
論文 参考訳(メタデータ) (2021-04-15T10:17:53Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - Direct Depth Learning Network for Stereo Matching [79.3665881702387]
ステレオマッチングのための新しいダイレクトディープス学習ネットワーク(DDL-Net)が設計されている。
DDL-Netは、粗度推定段階と適応勾配深度補正段階の2段階からなる。
我々は,DDL-NetがSceneFlowデータセットで25%,DrivingStereoデータセットで12%の平均的な改善を実現していることを示す。
論文 参考訳(メタデータ) (2020-12-10T10:33:57Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。