論文の概要: Dilated Fully Convolutional Neural Network for Depth Estimation from a
Single Image
- arxiv url: http://arxiv.org/abs/2103.07570v1
- Date: Fri, 12 Mar 2021 23:19:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 08:11:45.542124
- Title: Dilated Fully Convolutional Neural Network for Depth Estimation from a
Single Image
- Title(参考訳): 単一画像からの深度推定のための拡張完全畳み込みニューラルネットワーク
- Authors: Binghan Li, Yindong Hua, Yifeng Liu, Mi Lu
- Abstract要約: 従来のCNNの欠点に対処するために,高度な拡張完全畳み込みニューラルネットワークを提案する。
拡張畳み込みにおける受容野の指数拡大の利点を利用して、我々のモデルは分解能の損失を最小限に抑えることができる。
本研究では,nyu深部v2データセットを用いて,従来のcnns手法よりも奥行き予測が基礎的真理にかなり近いことを示す。
- 参考スコア(独自算出の注目度): 1.0131895986034314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Depth prediction plays a key role in understanding a 3D scene. Several
techniques have been developed throughout the years, among which Convolutional
Neural Network has recently achieved state-of-the-art performance on estimating
depth from a single image. However, traditional CNNs suffer from the lower
resolution and information loss caused by the pooling layers. And oversized
parameters generated from fully connected layers often lead to a exploded
memory usage problem. In this paper, we present an advanced Dilated Fully
Convolutional Neural Network to address the deficiencies. Taking advantages of
the exponential expansion of the receptive field in dilated convolutions, our
model can minimize the loss of resolution. It also reduces the amount of
parameters significantly by replacing the fully connected layers with the fully
convolutional layers. We show experimentally on NYU Depth V2 datasets that the
depth prediction obtained from our model is considerably closer to ground truth
than that from traditional CNNs techniques.
- Abstract(参考訳): 深度予測は3Dシーンを理解する上で重要な役割を果たす。
畳み込みニューラルネットワーク(Convolutional Neural Network)は、最近、1つの画像から深度を推定する最先端のパフォーマンスを達成した。
しかし、従来のCNNはプール層に起因する解像度の低下と情報損失に悩まされている。
そして、完全に接続された層から生成される過大なパラメータは、しばしば爆発的なメモリ使用問題を引き起こす。
本稿では,その欠陥に対処する高度な拡張完全畳み込みニューラルネットワークを提案する。
拡張畳み込みにおける受容場の指数的拡大の利点を生かして、我々のモデルは分解能の喪失を最小限に抑えることができる。
また、完全連結層を完全畳み込み層に置き換えることでパラメータの量を大幅に削減する。
本研究では,nyu深部v2データセットを用いて,従来のcnns手法よりも奥行き予測が基礎的真理にかなり近いことを示す。
関連論文リスト
- Repurposing Diffusion-Based Image Generators for Monocular Depth Estimation [20.230238670888454]
本稿では,アフィン不変な単分子深度推定法であるMarigoldを紹介する。
合成トレーニングデータのみを使用して、単一のGPU上で数日で微調整できる。
特定のケースで20%以上のパフォーマンス向上を含む、幅広いデータセットで最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2023-12-04T18:59:13Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - Towards Comprehensive Monocular Depth Estimation: Multiple Heads Are
Better Than One [32.01675089157679]
本稿では,複数の弱い深度予測器の強度を統合し,包括的かつ正確な深度予測器を構築することを提案する。
具体的には、異なるTransformerベースおよび畳み込みニューラルネットワーク(CNN)ベースのアーキテクチャを用いて、複数のベース(弱)深さ予測器を構築する。
その結果、トランスフォーマー支援深度アンサンブル(TEDepth)と呼ばれるモデルでは、従来の最先端手法よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2021-11-16T09:09:05Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - Monocular Depth Estimation Using Multi Scale Neural Network And Feature
Fusion [0.0]
ネットワークは2つの異なるブロックを使用し、まず、各特徴マップの畳み込みとマージに異なるフィルタサイズを使用する。
第2ブロックは、完全に連結された層の代わりに拡張畳み込みを使用し、計算を減らし、受容場を増大させる。
我々は、RMSE損失とSILog損失からなる深さ推定のための標準評価指標を用いて、Make 3Dデータセット、NYU Depth V2データセット、Kittiデータセットでネットワークをトレーニングし、テストする。
論文 参考訳(メタデータ) (2020-09-11T18:08:52Z) - Identity Enhanced Residual Image Denoising [61.75610647978973]
我々は、アイデンティティマッピングモジュールのチェーンと、画像の復号化のための残像アーキテクチャの残像からなる、完全な畳み込みネットワークモデルを学ぶ。
提案するネットワークは,従来の最先端・CNNアルゴリズムよりも極めて高い数値精度と画像品質を実現している。
論文 参考訳(メタデータ) (2020-04-26T04:52:22Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z) - Depth Completion Using a View-constrained Deep Prior [73.21559000917554]
近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
論文 参考訳(メタデータ) (2020-01-21T21:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。