論文の概要: On Feature Relevance Uncertainty: A Monte Carlo Dropout Sampling
Approach
- arxiv url: http://arxiv.org/abs/2008.01468v2
- Date: Tue, 11 Apr 2023 10:53:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 20:19:09.847217
- Title: On Feature Relevance Uncertainty: A Monte Carlo Dropout Sampling
Approach
- Title(参考訳): 特徴的妥当性の不確実性について:モンテカルロドロップアウトサンプリングアプローチ
- Authors: Kai Fischer, Jonas Schneider
- Abstract要約: ニューラルネットワークによる決定を理解することは、現実世界のアプリケーションにインテリジェントなシステムを配置するための鍵となる。
モンテカルロ法による特徴関連度分布の簡易かつ強力な推定法について述べる。
- 参考スコア(独自算出の注目度): 2.1701691499017812
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Understanding decisions made by neural networks is key for the deployment of
intelligent systems in real world applications. However, the opaque decision
making process of these systems is a disadvantage where interpretability is
essential. Many feature-based explanation techniques have been introduced over
the last few years in the field of machine learning to better understand
decisions made by neural networks and have become an important component to
verify their reasoning capabilities. However, existing methods do not allow
statements to be made about the uncertainty regarding a feature's relevance for
the prediction. In this paper, we introduce Monte Carlo Relevance Propagation
(MCRP) for feature relevance uncertainty estimation. A simple but powerful
method based on Monte Carlo estimation of the feature relevance distribution to
compute feature relevance uncertainty scores that allow a deeper understanding
of a neural network's perception and reasoning.
- Abstract(参考訳): ニューラルネットワークによる決定を理解することは、現実世界のアプリケーションにインテリジェントなシステムを配置するための鍵となる。
しかし、これらのシステムの不透明な意思決定プロセスは、解釈可能性が必要となる不利である。
ニューラルネットワークによる決定をよりよく理解するために、ここ数年、多くの機能ベースの説明技術が機械学習の分野で導入され、推論能力を検証する重要なコンポーネントとなっている。
しかし、既存の手法では、特徴の予測に対する関連性に関する不確実性に関する言明を許さない。
本稿では,特徴量不確かさ推定のためのモンテカルロ分布伝播(mcrp)を提案する。
モンテカルロ推定に基づく単純かつ強力な手法は、ニューラルネットワークの知覚と推論のより深い理解を可能にする特徴関係不確実性スコアを計算するために特徴関係分布を推定する。
関連論文リスト
- Interpretable Concept-Based Memory Reasoning [12.562474638728194]
コンセプトベースのメモリリゾナー(CMR)は、人間に理解でき、検証可能なタスク予測プロセスを提供するために設計された新しいCBMである。
CMRは最先端のCBMと同等の精度で解釈可能性のトレードオフを達成し、基礎的な真実と整合した論理規則を発見し、規則の介入を可能にし、事前デプロイ検証を可能にする。
論文 参考訳(メタデータ) (2024-07-22T10:32:48Z) - Preservation of Feature Stability in Machine Learning Under Data Uncertainty for Decision Support in Critical Domains [0.0]
人間の活動における決定は、しばしば重要な領域であっても不完全なデータに依存する。
本稿では,従来の機械学習手法を用いた一連の実験を行うことで,このギャップに対処する。
ML記述法は,データの不完全性が増大するにつれて特徴選択の安定性を確保しつつ,高い分類精度を維持する。
論文 参考訳(メタデータ) (2024-01-19T22:11:54Z) - Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Generalized Uncertainty of Deep Neural Networks: Taxonomy and
Applications [1.9671123873378717]
ディープニューラルネットワークの不確実性は、解釈可能性と透明性の感覚において重要であるだけでなく、パフォーマンスをさらに向上するためにも重要であることを示す。
我々は、ディープニューラルネットワークの不確実性の定義を、入力またはインプットラベルペアに関連する任意の数またはベクトルに一般化し、そのような不確かさをディープモデルから「マイニングに関する既存の方法」をカタログ化する。
論文 参考訳(メタデータ) (2023-02-02T22:02:33Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Analytic Mutual Information in Bayesian Neural Networks [0.8122270502556371]
相互情報は、不確実性を定量化するベイズニューラルネットワークにおける不確実性尺度の例である。
我々は,点過程のエントロピーの概念を利用して,モデルパラメータと予測出力の相互情報の解析式を導出する。
応用として,ディリクレパラメータの推定について考察し,アクティブラーニングの不確実性対策における実例を示す。
論文 参考訳(メタデータ) (2022-01-24T17:30:54Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - Identification of Unexpected Decisions in Partially Observable
Monte-Carlo Planning: a Rule-Based Approach [78.05638156687343]
本稿では,POMCPポリシーをトレースを検査して分析する手法を提案する。
提案手法は, 政策行動の局所的特性を探索し, 予期せぬ決定を識別する。
我々は,POMDPの標準ベンチマークであるTigerに対するアプローチと,移動ロボットナビゲーションに関する現実の問題を評価した。
論文 参考訳(メタデータ) (2020-12-23T15:09:28Z) - How Much Can I Trust You? -- Quantifying Uncertainties in Explaining
Neural Networks [19.648814035399013]
説明可能なAI(XAI)は、ディープニューラルネットワークなどの学習マシンが生成した予測の解釈を提供することを目的としている。
ニューラルネットワークの任意の説明法をベイズニューラルネットワークの説明法に変換するための新しいフレームワークを提案する。
様々な実験において,本手法の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-06-16T08:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。