論文の概要: Monocular Depth Estimation Primed by Salient Point Detection and
Normalized Hessian Loss
- arxiv url: http://arxiv.org/abs/2108.11098v1
- Date: Wed, 25 Aug 2021 07:51:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-26 18:08:03.929239
- Title: Monocular Depth Estimation Primed by Salient Point Detection and
Normalized Hessian Loss
- Title(参考訳): 正点検出と正規化ヘッセン損失による単眼深度推定
- Authors: Lam Huynh, Matteo Pedone, Phong Nguyen, Jiri Matas, Esa Rahtu, Janne
Heikkila
- Abstract要約: 本稿では,単眼深度推定のための高精度で軽量なフレームワークを提案する。
深度方向のスケーリングとせん断に不変な正規化ヘッセン損失項を導入し,精度を著しく向上させることを示した。
提案手法は,NYU-Depth-v2 と KITTI の3.1-38.4 倍小さいモデルを用いて,ベースライン手法よりもパラメータ数が多い場合の最先端結果を実現する。
- 参考スコア(独自算出の注目度): 43.950140695759764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks have recently thrived on single image depth estimation.
That being said, current developments on this topic highlight an apparent
compromise between accuracy and network size. This work proposes an accurate
and lightweight framework for monocular depth estimation based on a
self-attention mechanism stemming from salient point detection. Specifically,
we utilize a sparse set of keypoints to train a FuSaNet model that consists of
two major components: Fusion-Net and Saliency-Net. In addition, we introduce a
normalized Hessian loss term invariant to scaling and shear along the depth
direction, which is shown to substantially improve the accuracy. The proposed
method achieves state-of-the-art results on NYU-Depth-v2 and KITTI while using
3.1-38.4 times smaller model in terms of the number of parameters than baseline
approaches. Experiments on the SUN-RGBD further demonstrate the
generalizability of the proposed method.
- Abstract(参考訳): 深層ニューラルネットワークは最近、単一の画像深度推定で繁栄している。
とはいえ、このトピックの現在の開発は、正確さとネットワークサイズの間に明らかな妥協点を浮き彫りにしている。
本研究は,特異点検出に起因した自己拘束機構に基づく単眼深度推定のための高精度で軽量な枠組みを提案する。
具体的には,Fusion-NetとSaliency-Netの2つの主要コンポーネントで構成されるFuSaNetモデルをトレーニングするために,キーポイントのスパースセットを利用する。
さらに, 深さ方向のスケーリングとせん断に不変な正規化ヘッセン損失項を導入することにより, 精度が大幅に向上することを示す。
提案手法は,nyu-depth-v2およびkittiにおいて,パラメータ数をベースラインアプローチよりも3.1-38.4倍小さいモデルを用いて最先端の結果を得る。
SUN-RGBDの実験は、提案手法の一般化可能性をさらに示している。
関連論文リスト
- Deep Neighbor Layer Aggregation for Lightweight Self-Supervised
Monocular Depth Estimation [1.6775954077761863]
文脈的特徴融合を用いた完全畳み込み深度推定ネットワークを提案する。
UNet++やHRNetと比較して、我々は、小さなターゲットや高速移動オブジェクトに関する情報を予約するために、高解像度で低解像度の機能を使用します。
本手法は精度を犠牲にすることなくパラメータを削減する。
論文 参考訳(メタデータ) (2023-09-17T13:40:15Z) - VA-DepthNet: A Variational Approach to Single Image Depth Prediction [163.14849753700682]
VA-DepthNetは、単一画像深度予測問題に対する単純で効果的で正確なディープニューラルネットワークアプローチである。
本論文は,複数のベンチマークデータセットに対する広範囲な評価とアブレーション解析により提案手法の有用性を実証する。
論文 参考訳(メタデータ) (2023-02-13T17:55:58Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z) - HR-Depth: High Resolution Self-Supervised Monocular Depth Estimation [14.81943833870932]
本稿では,2つの効果的な戦略を持つ改良DepthNet,HR-Depthを提案する。
resnet-18をエンコーダとして使用すると、hr-depthは、高解像度と低解像度の両方で最小パラマエターを持つ、以前の最先端(sota)メソッドをすべて上回る。
論文 参考訳(メタデータ) (2020-12-14T09:15:15Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - Deep Multi-view Depth Estimation with Predicted Uncertainty [11.012201499666503]
我々は、高密度光フローネットワークを用いて対応を計算し、点雲を三角測量して初期深度マップを得る。
三角測量の精度をさらに高めるため,画像の文脈に基づく初期深度マップを最適化する深度補正ネットワーク(DRN)を導入する。
論文 参考訳(メタデータ) (2020-11-19T00:22:09Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z) - Guiding Monocular Depth Estimation Using Depth-Attention Volume [38.92495189498365]
本研究では,特に屋内環境に広く分布する平面構造を優先するための奥行き推定法を提案する。
2つのポピュラーな屋内データセットであるNYU-Depth-v2とScanNetの実験により,本手法が最先端の深度推定結果を実現することを示す。
論文 参考訳(メタデータ) (2020-04-06T15:45:52Z) - DELTAS: Depth Estimation by Learning Triangulation And densification of
Sparse points [14.254472131009653]
多視点ステレオ (MVS) は, 能動深度センシングの精度と単眼深度推定の実用性の間の黄金平均値である。
3次元畳み込みニューラルネットワーク(CNN)を用いたコストボリュームベースのアプローチにより、MVSシステムの精度が大幅に向上した。
まず、(a)興味点の記述子を検出して評価し、次に(b)興味点の小さな集合をマッチングして三角測量し、最後に(c)CNNを用いてこのスパースな3D点の集合を密度化することで、効率的な深さ推定手法を提案する。
論文 参考訳(メタデータ) (2020-03-19T17:56:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。