論文の概要: On Feature Relevance Uncertainty: A Monte Carlo Dropout Sampling
Approach
- arxiv url: http://arxiv.org/abs/2008.01468v1
- Date: Tue, 4 Aug 2020 11:31:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 23:30:29.171012
- Title: On Feature Relevance Uncertainty: A Monte Carlo Dropout Sampling
Approach
- Title(参考訳): 特徴的妥当性の不確実性について:モンテカルロドロップアウトサンプリングアプローチ
- Authors: Kai Fabi, Jonas Schneider
- Abstract要約: ニューラルネットワークによる決定を理解することは、現実世界のアプリケーションにインテリジェントなシステムを配置するための鍵となる。
モンテカルロ法による特徴関連度分布の簡易かつ強力な推定法について述べる。
- 参考スコア(独自算出の注目度): 0.9010643838773477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding decisions made by neural networks is key for the deployment of
intelligent systems in real world applications. However, the opaque decision
making process of these systems is a disadvantage where interpretability is
essential. Many feature-based explanation techniques have been introduced over
the last few years in the field of machine learning to better understand
decisions made by neural networks and have become an important component to
verify their reasoning capabilities. However, existing methods do not allow
statements to be made about the uncertainty regarding a feature's relevance for
the prediction. In this paper, we introduce Monte Carlo Relevance Propagation
(MCRP) for feature relevance uncertainty estimation. A simple but powerful
method based on Monte Carlo estimation of the feature relevance distribution to
compute feature relevance uncertainty scores that allow a deeper understanding
of a neural network's perception and reasoning.
- Abstract(参考訳): ニューラルネットワークによる決定を理解することは、現実世界のアプリケーションにインテリジェントなシステムを配置するための鍵となる。
しかし、これらのシステムの不透明な意思決定プロセスは、解釈可能性が必要となる不利である。
ニューラルネットワークによる決定をよりよく理解するために、ここ数年、多くの機能ベースの説明技術が機械学習の分野で導入され、推論能力を検証する重要なコンポーネントとなっている。
しかし、既存の手法では、特徴の予測に対する関連性に関する不確実性に関する言明を許さない。
本稿では,特徴量不確かさ推定のためのモンテカルロ分布伝播(mcrp)を提案する。
モンテカルロ推定に基づく単純かつ強力な手法は、ニューラルネットワークの知覚と推論のより深い理解を可能にする特徴関係不確実性スコアを計算するために特徴関係分布を推定する。
関連論文リスト
- Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Evidential Deep Learning: Enhancing Predictive Uncertainty Estimation
for Earth System Science Applications [0.32302664881848275]
エビデンシャル・ディープ・ラーニング(Evidential Deep Learning)は、パラメトリック・ディープ・ラーニングを高次分布に拡張する手法である。
本研究では,明らかなニューラルネットワークから得られる不確実性とアンサンブルから得られる不確実性を比較する。
本研究では,従来の手法に匹敵する予測精度を実現するとともに,両方の不確実性源をしっかりと定量化しながら,明らかな深層学習モデルを示す。
論文 参考訳(メタデータ) (2023-09-22T23:04:51Z) - Probabilistic computation and uncertainty quantification with emerging
covariance [11.79594512851008]
堅牢で解釈可能なセキュアなAIシステムを構築するには、確率論的視点の下で不確実性を定量化し、表現する必要がある。
確率計算は、ほとんどの従来の人工ニューラルネットワークにとって重要な課題である。
論文 参考訳(メタデータ) (2023-05-30T17:55:29Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Generalized Uncertainty of Deep Neural Networks: Taxonomy and
Applications [1.9671123873378717]
ディープニューラルネットワークの不確実性は、解釈可能性と透明性の感覚において重要であるだけでなく、パフォーマンスをさらに向上するためにも重要であることを示す。
我々は、ディープニューラルネットワークの不確実性の定義を、入力またはインプットラベルペアに関連する任意の数またはベクトルに一般化し、そのような不確かさをディープモデルから「マイニングに関する既存の方法」をカタログ化する。
論文 参考訳(メタデータ) (2023-02-02T22:02:33Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Analytic Mutual Information in Bayesian Neural Networks [0.8122270502556371]
相互情報は、不確実性を定量化するベイズニューラルネットワークにおける不確実性尺度の例である。
我々は,点過程のエントロピーの概念を利用して,モデルパラメータと予測出力の相互情報の解析式を導出する。
応用として,ディリクレパラメータの推定について考察し,アクティブラーニングの不確実性対策における実例を示す。
論文 参考訳(メタデータ) (2022-01-24T17:30:54Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - Identification of Unexpected Decisions in Partially Observable
Monte-Carlo Planning: a Rule-Based Approach [78.05638156687343]
本稿では,POMCPポリシーをトレースを検査して分析する手法を提案する。
提案手法は, 政策行動の局所的特性を探索し, 予期せぬ決定を識別する。
我々は,POMDPの標準ベンチマークであるTigerに対するアプローチと,移動ロボットナビゲーションに関する現実の問題を評価した。
論文 参考訳(メタデータ) (2020-12-23T15:09:28Z) - How Much Can I Trust You? -- Quantifying Uncertainties in Explaining
Neural Networks [19.648814035399013]
説明可能なAI(XAI)は、ディープニューラルネットワークなどの学習マシンが生成した予測の解釈を提供することを目的としている。
ニューラルネットワークの任意の説明法をベイズニューラルネットワークの説明法に変換するための新しいフレームワークを提案する。
様々な実験において,本手法の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-06-16T08:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。