論文の概要: Towards Interpretable Deep Networks for Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2108.05312v1
- Date: Wed, 11 Aug 2021 16:43:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 13:25:01.189299
- Title: Towards Interpretable Deep Networks for Monocular Depth Estimation
- Title(参考訳): 単眼深度推定のための解釈可能な深部ネットワークを目指して
- Authors: Zunzhi You, Yi-Hsuan Tsai, Wei-Chen Chiu, Guanbin Li
- Abstract要約: 我々は,深部MDEネットワークの解釈可能性について,その隠蔽ユニットの深さ選択性を用いて定量化する。
本稿では,解釈可能なMDE深層ネットワークを,元のアーキテクチャを変更することなく学習する手法を提案する。
実験により,本手法は深部MDEネットワークの解釈可能性を向上させることができることが示された。
- 参考スコア(独自算出の注目度): 78.84690613778739
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep networks for Monocular Depth Estimation (MDE) have achieved promising
performance recently and it is of great importance to further understand the
interpretability of these networks. Existing methods attempt to provide posthoc
explanations by investigating visual cues, which may not explore the internal
representations learned by deep networks. In this paper, we find that some
hidden units of the network are selective to certain ranges of depth, and thus
such behavior can be served as a way to interpret the internal representations.
Based on our observations, we quantify the interpretability of a deep MDE
network by the depth selectivity of its hidden units. Moreover, we then propose
a method to train interpretable MDE deep networks without changing their
original architectures, by assigning a depth range for each unit to select.
Experimental results demonstrate that our method is able to enhance the
interpretability of deep MDE networks by largely improving the depth
selectivity of their units, while not harming or even improving the depth
estimation accuracy. We further provide a comprehensive analysis to show the
reliability of selective units, the applicability of our method on different
layers, models, and datasets, and a demonstration on analysis of model error.
Source code and models are available at
https://github.com/youzunzhi/InterpretableMDE .
- Abstract(参考訳): 近年,単眼深度推定のための深層ネットワークが有望な性能に達しており,これらのネットワークの解釈可能性のさらなる理解が重要である。
既存の手法では、深層ネットワークで学習した内部表現を探索しない視覚的手がかりを探索することで、ポストホックな説明を提供することを試みる。
本稿では,ネットワークの隠れたユニットが一定の範囲の深さに選択的であることから,そのような動作を内部表現の解釈の手段として利用することができる。
その結果,隠れ単位の深さ選択性によって,深層mdeネットワークの解釈可能性を定量化した。
さらに,各ユニットが選択する深度範囲を割り当てることで,元のアーキテクチャを変更することなく,解釈可能なMDE深度ネットワークを訓練する手法を提案する。
実験の結果, 本手法は, 深度推定精度を損なうことなく, ユニットの深さ選択性を大きく向上させることにより, 深層mdeネットワークの解釈性を向上させることができた。
さらに,選択単位の信頼性,異なる層,モデル,データセットに対する提案手法の適用性,モデル誤差の解析に関する実証を行った。
ソースコードとモデルはhttps://github.com/youzunzhi/InterpretableMDEで入手できる。
関連論文リスト
- Lightweight Monocular Depth Estimation with an Edge Guided Network [34.03711454383413]
本稿では,新しいエッジガイド深度推定ネットワーク(EGD-Net)を提案する。
特に、軽量なエンコーダデコーダアーキテクチャから始め、エッジガイダンスブランチを組み込む。
コンテクスト情報とエッジアテンション特徴を集約するために,トランスフォーマーをベースとした機能アグリゲーションモジュールを設計する。
論文 参考訳(メタデータ) (2022-09-29T14:45:47Z) - Monocular Depth Estimation Using Cues Inspired by Biological Vision
Systems [22.539300644593936]
単眼深度推定(MDE)は、シーンのRGB画像を同じカメラビューから画素幅の深度マップに変換することを目的としている。
MDEタスクの一部は、画像内のどの視覚的手がかりを深度推定に使用できるか、どのように使うかを学ぶことである。
モデルに視覚的キュー情報を明示的に注入することは深度推定に有用であることを示す。
論文 参考訳(メタデータ) (2022-04-21T19:42:36Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - X-Distill: Improving Self-Supervised Monocular Depth via Cross-Task
Distillation [69.9604394044652]
そこで本研究では,クロスタスク知識蒸留による単眼深度の自己指導的訓練を改善する手法を提案する。
トレーニングでは,事前訓練されたセマンティックセグメンテーション教師ネットワークを使用し,そのセマンティック知識を深度ネットワークに転送する。
提案手法の有効性をKITTIベンチマークで評価し,最新技術と比較した。
論文 参考訳(メタデータ) (2021-10-24T19:47:14Z) - Self-Supervised Monocular Depth Estimation with Internal Feature Fusion [12.874712571149725]
深度推定のための自己教師付き学習は、画像列の幾何学を用いて監督する。
そこで本研究では,ダウンおよびアップサンプリングの手順で意味情報を利用することのできる,新しい深度推定ネットワークDIFFNetを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:31:11Z) - Monocular Depth Estimation Primed by Salient Point Detection and
Normalized Hessian Loss [43.950140695759764]
本稿では,単眼深度推定のための高精度で軽量なフレームワークを提案する。
深度方向のスケーリングとせん断に不変な正規化ヘッセン損失項を導入し,精度を著しく向上させることを示した。
提案手法は,NYU-Depth-v2 と KITTI の3.1-38.4 倍小さいモデルを用いて,ベースライン手法よりもパラメータ数が多い場合の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-08-25T07:51:09Z) - SOSD-Net: Joint Semantic Object Segmentation and Depth Estimation from
Monocular images [94.36401543589523]
これら2つのタスクの幾何学的関係を利用するための意味的対象性の概念を紹介します。
次に, 対象性仮定に基づくセマンティックオブジェクト・深さ推定ネットワーク(SOSD-Net)を提案する。
私たちの知識を最大限に活用するために、SOSD-Netは同時単眼深度推定とセマンティックセグメンテーションのためのジオメトリ制約を利用する最初のネットワークです。
論文 参考訳(メタデータ) (2021-01-19T02:41:03Z) - Recursive Multi-model Complementary Deep Fusion forRobust Salient Object
Detection via Parallel Sub Networks [62.26677215668959]
完全畳み込みネットワークは、正体検出(SOD)分野において優れた性能を示している。
本稿では,全く異なるネットワークアーキテクチャを持つ並列サブネットワークからなる,より広いネットワークアーキテクチャを提案する。
いくつかの有名なベンチマークの実験では、提案されたより広範なフレームワークの優れた性能、優れた一般化、強力な学習能力が明らかに示されている。
論文 参考訳(メタデータ) (2020-08-07T10:39:11Z) - Guiding Monocular Depth Estimation Using Depth-Attention Volume [38.92495189498365]
本研究では,特に屋内環境に広く分布する平面構造を優先するための奥行き推定法を提案する。
2つのポピュラーな屋内データセットであるNYU-Depth-v2とScanNetの実験により,本手法が最先端の深度推定結果を実現することを示す。
論文 参考訳(メタデータ) (2020-04-06T15:45:52Z) - Video Depth Estimation by Fusing Flow-to-Depth Proposals [65.24533384679657]
本稿では,映像深度推定のためのフロー・ツー・ディープス・レイヤの異なる手法を提案する。
モデルは、フロー・トゥ・ディープス層、カメラ・ポーズ・リファインメント・モジュール、ディープ・フュージョン・ネットワークから構成される。
提案手法は,最先端の深度推定法より優れ,合理的なデータセット一般化能力を有する。
論文 参考訳(メタデータ) (2019-12-30T10:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。