論文の概要: Shedding Light on Depth: Explainability Assessment in Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2509.15980v1
- Date: Fri, 19 Sep 2025 13:45:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.184791
- Title: Shedding Light on Depth: Explainability Assessment in Monocular Depth Estimation
- Title(参考訳): 深度への遮蔽光:単眼深度推定における説明可能性評価
- Authors: Lorenzo Cirillo, Claudio Schiavella, Lorenzo Papa, Paolo Russo, Irene Amerini,
- Abstract要約: 本研究では,MDEネットワークを解析し,入力画像の予測深度マップへのマッピング方法について検討する。
生成した視覚的説明の質を,最も関連性が高く無関係な画素を選択的に摂動することで評価する。
予測深度マップとの整合性を評価することにより,特徴属性の信頼性を評価する。
- 参考スコア(独自算出の注目度): 12.223576286931094
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainable artificial intelligence is increasingly employed to understand the decision-making process of deep learning models and create trustworthiness in their adoption. However, the explainability of Monocular Depth Estimation (MDE) remains largely unexplored despite its wide deployment in real-world applications. In this work, we study how to analyze MDE networks to map the input image to the predicted depth map. More in detail, we investigate well-established feature attribution methods, Saliency Maps, Integrated Gradients, and Attention Rollout on different computationally complex models for MDE: METER, a lightweight network, and PixelFormer, a deep network. We assess the quality of the generated visual explanations by selectively perturbing the most relevant and irrelevant pixels, as identified by the explainability methods, and analyzing the impact of these perturbations on the model's output. Moreover, since existing evaluation metrics can have some limitations in measuring the validity of visual explanations for MDE, we additionally introduce the Attribution Fidelity. This metric evaluates the reliability of the feature attribution by assessing their consistency with the predicted depth map. Experimental results demonstrate that Saliency Maps and Integrated Gradients have good performance in highlighting the most important input features for MDE lightweight and deep models, respectively. Furthermore, we show that Attribution Fidelity effectively identifies whether an explainability method fails to produce reliable visual maps, even in scenarios where conventional metrics might suggest satisfactory results.
- Abstract(参考訳): 説明可能な人工知能は、ディープラーニングモデルの意思決定プロセスを理解し、採用における信頼性を生み出すために、ますます採用されている。
しかし、モノクロ深度推定(MDE)は、現実世界のアプリケーションに広く展開されているにもかかわらず、まだほとんど解明されていない。
本研究では,MDEネットワークを解析し,入力画像の予測深度マップへのマッピング方法について検討する。
より詳しくは,MDE の計算複雑モデルである METER と深層ネットワークである PixelFormer について,高度に確立された特徴帰属手法,Saliency Maps ,Integrated Gradients および Attention Rollout について検討する。
本稿では,最も関連性の高い画素と無関係な画素を選択的に摂動することで生成した視覚的説明の質を評価し,それらの摂動がモデル出力に与える影響を解析する。
さらに、既存の評価指標は、MDEの視覚的説明の妥当性を測る上でいくつかの制限があるため、属性忠実度も導入する。
予測深度マップとの整合性を評価することにより,特徴属性の信頼性を評価する。
実験結果から,MDE軽量モデルと深層モデルにおいて,Saliency MapsとIntegrated Gradientsは,それぞれ最も重要な入力機能を強調した。
さらに,従来のメトリクスが満足な結果を示すシナリオであっても,説明可能性法が信頼性の高い視覚マップの生成に失敗するかどうかを効果的に判断できることを示す。
関連論文リスト
- Relative Pose Estimation through Affine Corrections of Monocular Depth Priors [69.59216331861437]
本研究では,独立なアフィン(スケールとシフト)のあいまいさを明示的に考慮した相対ポーズ推定のための3つの解法を開発した。
提案する解法と古典的点ベース解法とエピポーラ制約を組み合わせたハイブリッド推定パイプラインを提案する。
論文 参考訳(メタデータ) (2025-01-09T18:58:30Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - Self-Supervised Monocular Depth Estimation with Internal Feature Fusion [12.874712571149725]
深度推定のための自己教師付き学習は、画像列の幾何学を用いて監督する。
そこで本研究では,ダウンおよびアップサンプリングの手順で意味情報を利用することのできる,新しい深度推定ネットワークDIFFNetを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:31:11Z) - Who Explains the Explanation? Quantitatively Assessing Feature
Attribution Methods [0.0]
本稿では,説明の忠実度を定量化するための新しい評価指標であるフォーカス(Focus)を提案する。
ランダム化実験によって測定値のロバスト性を示し、次にFocusを用いて3つの一般的な説明可能性手法を評価し比較する。
実験の結果,LRPとGradCAMは一貫性があり信頼性が高いことがわかった。
論文 参考訳(メタデータ) (2021-09-28T07:10:24Z) - Towards Interpretable Deep Networks for Monocular Depth Estimation [78.84690613778739]
我々は,深部MDEネットワークの解釈可能性について,その隠蔽ユニットの深さ選択性を用いて定量化する。
本稿では,解釈可能なMDE深層ネットワークを,元のアーキテクチャを変更することなく学習する手法を提案する。
実験により,本手法は深部MDEネットワークの解釈可能性を向上させることができることが示された。
論文 参考訳(メタデータ) (2021-08-11T16:43:45Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - SAFENet: Self-Supervised Monocular Depth Estimation with Semantic-Aware
Feature Extraction [27.750031877854717]
本稿では,セマンティック情報を活用して光度損失の限界を克服するSAFENetを提案する。
私たちのキーとなるアイデアは、意味的知識と幾何学的知識を統合するセマンティック・アウェア・ディープ機能を活用することです。
KITTIデータセットの実験では、我々の手法が最先端の手法と競合するか、さらに優れています。
論文 参考訳(メタデータ) (2020-10-06T17:22:25Z) - Assessing the Reliability of Visual Explanations of Deep Models with
Adversarial Perturbations [15.067369314723958]
本稿では,深層モデルの説明の信頼性を評価するための客観的尺度を提案する。
提案手法は,入力画像の逆方向の摂動によるネットワーク結果の変化に基づく。
我々はまた,本質的な説明を損なうことなく,より解釈可能な地図を創出し,関連性マップのクリーン化へのアプローチの直接的な適用を提案する。
論文 参考訳(メタデータ) (2020-04-22T19:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。