論文の概要: A Novel 3D-UNet Deep Learning Framework Based on High-Dimensional
Bilateral Grid for Edge Consistent Single Image Depth Estimation
- arxiv url: http://arxiv.org/abs/2105.10129v1
- Date: Fri, 21 May 2021 04:53:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:27:14.418288
- Title: A Novel 3D-UNet Deep Learning Framework Based on High-Dimensional
Bilateral Grid for Edge Consistent Single Image Depth Estimation
- Title(参考訳): エッジ一貫性単一画像深度推定のための高次元バイラテラルグリッドに基づく新しい3D-UNetディープラーニングフレームワーク
- Authors: Mansi Sharma, Abheesht Sharma, Kadvekar Rohit Tushar, Avinash Panneer
- Abstract要約: 3DBG-UNetと呼ばれるバイラテラルグリッドベースの3D畳み込みニューラルネットワークは、UNetsでコンパクトな3D二元格子を符号化することで、高次元の特徴空間をパラメータ化する。
別の新しい3DBGES-UNetモデルは、3DBG-UNetを統合して1つのカラービューの正確な深度マップを推測するものである。
- 参考スコア(独自算出の注目度): 0.45880283710344055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of predicting smooth and edge-consistent depth maps is notoriously
difficult for single image depth estimation. This paper proposes a novel
Bilateral Grid based 3D convolutional neural network, dubbed as 3DBG-UNet, that
parameterizes high dimensional feature space by encoding compact 3D bilateral
grids with UNets and infers sharp geometric layout of the scene. Further,
another novel 3DBGES-UNet model is introduced that integrate 3DBG-UNet for
inferring an accurate depth map given a single color view. The 3DBGES-UNet
concatenates 3DBG-UNet geometry map with the inception network edge
accentuation map and a spatial object's boundary map obtained by leveraging
semantic segmentation and train the UNet model with ResNet backbone. Both
models are designed with a particular attention to explicitly account for edges
or minute details. Preserving sharp discontinuities at depth edges is critical
for many applications such as realistic integration of virtual objects in AR
video or occlusion-aware view synthesis for 3D display applications.The
proposed depth prediction network achieves state-of-the-art performance in both
qualitative and quantitative evaluations on the challenging NYUv2-Depth data.
The code and corresponding pre-trained weights will be made publicly available.
- Abstract(参考訳): 画像深度推定では,スムーズかつエッジ一貫性のある深度マップの予測が難しいことが知られている。
本稿では,3dbg-unetと呼ばれる,コンパクトな3次元並列グリッドをunetsで符号化し,シーンのシャープな幾何学的レイアウトを推定し,高次元特徴空間をパラメータ化する,新たなバイラテラルグリッド型3次元畳み込みニューラルネットワークを提案する。
さらに、3DBGES-UNetモデルを導入し、3DBG-UNetを統合して、1つの色ビューの正確な深度マップを推定する。
3DBGES-UNetは、3DBG-UNetジオメトリマップと、開始ネットワークエッジアクセントマップと、セマンティックセグメンテーションを活用して得られた空間オブジェクトの境界マップを結合し、ResNetバックボーンでUNetモデルを訓練する。
どちらのモデルも、エッジや細部を明示的に考慮して設計されている。
奥行きエッジにおけるシャープな不連続性を保つことは,arビデオにおける仮想オブジェクトの現実的統合や3次元表示のためのオクルージョン・アウェア・ビュー合成など,多くのアプリケーションにとって重要である。
コードとそれに対応するトレーニング済み重量は、一般公開される予定だ。
関連論文リスト
- GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Semantic Dense Reconstruction with Consistent Scene Segments [33.0310121044956]
RGB-Dシーケンスから高レベルなシーン理解タスクを解くために,RGB-Dシーケンスから高密度なセマンティック3Dシーンを再構築する手法を提案する。
まず、各RGB-Dペアは、カメラ追跡バックボーンに基づいて、一貫して2Dセマンティックマップに分割される。
入力されたRGB-Dシーケンスから未知環境の高密度3Dメッシュモデルを漸進的に生成する。
論文 参考訳(メタデータ) (2021-09-30T03:01:17Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D Object Detection [70.71934539556916]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - Learning Joint 2D-3D Representations for Depth Completion [90.62843376586216]
2Dおよび3Dの関節の特徴を抽出することを学ぶシンプルで効果的なニューラルネットワークブロックを設計します。
具体的には、画像画素に2D畳み込みと3D点に連続畳み込みを施した2つのドメイン固有のサブネットワークから構成される。
論文 参考訳(メタデータ) (2020-12-22T22:58:29Z) - Exploring Deep 3D Spatial Encodings for Large-Scale 3D Scene
Understanding [19.134536179555102]
生の3次元点雲の空間的特徴を非方向性グラフモデルに符号化することで,CNNに基づくアプローチの限界を克服する代替手法を提案する。
提案手法は、訓練時間とモデル安定性を改善して、最先端の精度で達成し、さらなる研究の可能性を示す。
論文 参考訳(メタデータ) (2020-11-29T12:56:19Z) - Pointwise Attention-Based Atrous Convolutional Neural Networks [15.499267533387039]
多数の点を効率的に扱うために,注目度に基づくアトラス畳み込みニューラルネットワークアーキテクチャを提案する。
提案モデルは,3次元セマンティックセグメンテーションタスクにおいて,最も重要な2つの3Dポイントクラウドデータセット上で評価されている。
精度の面では最先端モデルと比較して妥当な性能を達成し、パラメータの数ははるかに少ない。
論文 参考訳(メタデータ) (2019-12-27T13:12:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。