論文の概要: HR-Depth: High Resolution Self-Supervised Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2012.07356v1
- Date: Mon, 14 Dec 2020 09:15:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 05:02:01.926290
- Title: HR-Depth: High Resolution Self-Supervised Monocular Depth Estimation
- Title(参考訳): HR深度:高分解能自己監督単分子深度推定
- Authors: Xiaoyang Lyu, Liang Liu, Mengmeng Wang, Xin Kong, Lina Liu, Yong Liu,
Xinxin Chen, Yi Yuan
- Abstract要約: 本稿では,2つの効果的な戦略を持つ改良DepthNet,HR-Depthを提案する。
resnet-18をエンコーダとして使用すると、hr-depthは、高解像度と低解像度の両方で最小パラマエターを持つ、以前の最先端(sota)メソッドをすべて上回る。
- 参考スコア(独自算出の注目度): 14.81943833870932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning shows great potential in monoculardepth estimation,
using image sequences as the only source ofsupervision. Although people try to
use the high-resolutionimage for depth estimation, the accuracy of prediction
hasnot been significantly improved. In this work, we find thecore reason comes
from the inaccurate depth estimation inlarge gradient regions, making the
bilinear interpolation er-ror gradually disappear as the resolution increases.
To obtainmore accurate depth estimation in large gradient regions, itis
necessary to obtain high-resolution features with spatialand semantic
information. Therefore, we present an improvedDepthNet, HR-Depth, with two
effective strategies: (1) re-design the skip-connection in DepthNet to get
better high-resolution features and (2) propose feature fusion
Squeeze-and-Excitation(fSE) module to fuse feature more efficiently.Using
Resnet-18 as the encoder, HR-Depth surpasses all pre-vious
state-of-the-art(SoTA) methods with the least param-eters at both high and low
resolution. Moreover, previousstate-of-the-art methods are based on fairly
complex and deepnetworks with a mass of parameters which limits their
realapplications. Thus we also construct a lightweight networkwhich uses
MobileNetV3 as encoder. Experiments show thatthe lightweight network can
perform on par with many largemodels like Monodepth2 at high-resolution with
only20%parameters. All codes and models will be available at
https://github.com/shawLyu/HR-Depth.
- Abstract(参考訳): 自己教師付き学習は、スーパービジョンの唯一の源として画像列を用いる単眼深度推定において大きな可能性を示している。
奥行き推定には高解像度画像を用いたが, 予測精度は改善されていない。
本研究では,両線形補間er-rorが分解能の増大に伴って徐々に消失する不正確な深さ推定勾配領域から,中心的理由が得られた。
大きな勾配領域でより正確な深度推定を行うには、空間的・意味的な情報を持つ高解像度の特徴を得る必要がある。
そこで, 改良されたDepthNet, HR-Depthの2つの効果的な戦略を提案する。(1)DepthNetにおけるスキップ接続を高解像度化するために再設計し, (2)機能融合Squeeze-and-Excitation(fSE)モジュールをより効率的にヒューズするために提案する。
さらに、以前のstate-of-the-artメソッドは、実際のアプリケーションを制限するパラメータの質量を持つかなり複雑なディープネットワークに基づいている。
また,mobilenetv3をエンコーダとして使用する軽量ネットワークを構築する。
実験によると、軽量ネットワークは、monodepth2のような多くの大規模モデルと同程度の解像度で、わずか20%のパラメータで実行できる。
すべてのコードとモデルはhttps://github.com/shawLyu/HR-Depth.comで入手できる。
関連論文リスト
- DepthSplat: Connecting Gaussian Splatting and Depth [90.06180236292866]
本稿では,ガウススプラッティングと深さ推定を結合するDepthSplatを提案する。
まず,事前学習した単眼深度特徴を生かして,頑健な多眼深度モデルを提案する。
また,ガウス的スプラッティングは教師なし事前学習の目的として機能することを示す。
論文 参考訳(メタデータ) (2024-10-17T17:59:58Z) - Depth Estimation From Monocular Images With Enhanced Encoder-Decoder Architecture [0.0]
本稿では,エンコーダデコーダアーキテクチャを用いた新しい深層学習手法を提案する。
Inception-ResNet-v2モデルはエンコーダとして利用される。
NYU Depth V2データセットの実験結果は、我々のモデルが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-15T13:46:19Z) - NeRF-Det++: Incorporating Semantic Cues and Perspective-aware Depth
Supervision for Indoor Multi-View 3D Detection [72.0098999512727]
NeRF-Detは、NeRFを用いた屋内マルチビュー3次元検出において、表現学習の強化による優れた性能を実現している。
セマンティックエンハンスメント(セマンティックエンハンスメント)、パースペクティブ・アウェア・サンプリング(パースペクティブ・アウェア・サンプリング)、および順序深度監視を含む3つのソリューションを提案する。
結果として得られたアルゴリズムであるNeRF-Det++は、ScanNetV2とAR KITScenesデータセットで魅力的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-22T11:48:06Z) - Deep Neighbor Layer Aggregation for Lightweight Self-Supervised
Monocular Depth Estimation [1.6775954077761863]
文脈的特徴融合を用いた完全畳み込み深度推定ネットワークを提案する。
UNet++やHRNetと比較して、我々は、小さなターゲットや高速移動オブジェクトに関する情報を予約するために、高解像度で低解像度の機能を使用します。
本手法は精度を犠牲にすることなくパラメータを削減する。
論文 参考訳(メタデータ) (2023-09-17T13:40:15Z) - RA-Depth: Resolution Adaptive Self-Supervised Monocular Depth Estimation [27.679479140943503]
本研究では,シーン深さのスケール不変性を学習し,自己教師付き単眼深度推定法(RA-Depth)を提案する。
RA-Depthは最先端の性能を達成し、解像度適応の優れた能力を示す。
論文 参考訳(メタデータ) (2022-07-25T08:49:59Z) - Global-Local Path Networks for Monocular Depth Estimation with Vertical
CutDepth [24.897377434844266]
単分子深度推定のための新しい構造とトレーニング戦略を提案する。
階層型トランスフォーマーエンコーダをデプロイして,グローバルなコンテキストをキャプチャし,伝達し,軽量で強力なデコーダを設計する。
我々のネットワークは、挑戦的な深度データセットNYU Depth V2に対して最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-01-19T06:37:21Z) - Monocular Depth Estimation Primed by Salient Point Detection and
Normalized Hessian Loss [43.950140695759764]
本稿では,単眼深度推定のための高精度で軽量なフレームワークを提案する。
深度方向のスケーリングとせん断に不変な正規化ヘッセン損失項を導入し,精度を著しく向上させることを示した。
提案手法は,NYU-Depth-v2 と KITTI の3.1-38.4 倍小さいモデルを用いて,ベースライン手法よりもパラメータ数が多い場合の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-08-25T07:51:09Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - Interpretable Detail-Fidelity Attention Network for Single Image
Super-Resolution [89.1947690981471]
本研究では,スムースとディテールを段階的に分割・収束的に処理する,目的・解釈可能なディテール・ファイダリティ・アテンション・ネットワークを提案する。
特に,詳細推論において顕著な解釈可能な特徴表現のためのヘシアンフィルタを提案する。
実験により,提案手法は最先端手法よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2020-09-28T08:31:23Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。