論文の概要: Explaining Bayesian Neural Networks
- arxiv url: http://arxiv.org/abs/2108.10346v1
- Date: Mon, 23 Aug 2021 18:09:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 14:30:09.491275
- Title: Explaining Bayesian Neural Networks
- Title(参考訳): ベイズニューラルネットワークの解説
- Authors: Kirill Bykov, Marina M.-C. H\"ohne, Adelaida Creosteanu, Klaus-Robert
M\"uller, Frederick Klauschen, Shinichi Nakajima, Marius Kloft
- Abstract要約: XAIは、意思決定においてDeep Neural Networks(DNN)のような高度な学習マシンをより透過的にすることを目指している。
これまでのところ、BNNには、以前の重量分布を通じて、限定的な透明性(モデル透明性)が組み込まれています。
本稿では,この2つの透明性の観点を,BNNを説明するための全体論的な説明フレームワークにまとめる。
- 参考スコア(独自算出の注目度): 11.296451806040796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To make advanced learning machines such as Deep Neural Networks (DNNs) more
transparent in decision making, explainable AI (XAI) aims to provide
interpretations of DNNs' predictions. These interpretations are usually given
in the form of heatmaps, each one illustrating relevant patterns regarding the
prediction for a given instance. Bayesian approaches such as Bayesian Neural
Networks (BNNs) so far have a limited form of transparency (model transparency)
already built-in through their prior weight distribution, but notably, they
lack explanations of their predictions for given instances. In this work, we
bring together these two perspectives of transparency into a holistic
explanation framework for explaining BNNs. Within the Bayesian framework, the
network weights follow a probability distribution. Hence, the standard
(deterministic) prediction strategy of DNNs extends in BNNs to a predictive
distribution, and thus the standard explanation extends to an explanation
distribution. Exploiting this view, we uncover that BNNs implicitly employ
multiple heterogeneous prediction strategies. While some of these are inherited
from standard DNNs, others are revealed to us by considering the inherent
uncertainty in BNNs. Our quantitative and qualitative experiments on
toy/benchmark data and real-world data from pathology show that the proposed
approach of explaining BNNs can lead to more effective and insightful
explanations.
- Abstract(参考訳): 意思決定においてDeep Neural Networks(DNN)のような高度な学習マシンをより透過的にするために、説明可能なAI(XAI)は、DNNの予測の解釈を提供することを目的としている。
これらの解釈は通常、ヒートマップの形で与えられ、それぞれが与えられたインスタンスの予測に関する関連するパターンを示す。
ベイジアンニューラルネットワーク(BNN)のようなベイジアンアプローチは、それまでの重量分布を通じて既に組み込まれていた、限定的な透明性(モデル透明性)を持っているが、特に、与えられたインスタンスに対する予測についての説明が欠けている。
本稿では,この2つの透明性の観点を,BNNの説明のための全体的説明フレームワークにまとめる。
ベイズフレームワーク内では、ネットワークの重み付けは確率分布に従う。
したがって、DNNの標準的な(決定論的)予測戦略は、BNNにおいて予測分布に拡張され、標準説明は説明分布に拡張される。
この観点から、BNNが複数の異種予測戦略を暗黙的に採用していることが判明した。
それらのいくつかは標準のDNNから受け継がれているが、BNNに固有の不確実性を考慮することで明らかになっているものもある。
おもちゃ/ベンチマークデータと病理学の実世界データに関する定量的・定性的な実験から,bnnを説明するための提案手法がより効果的で洞察に富んだ説明につながる可能性が示唆された。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Towards Modeling Uncertainties of Self-explaining Neural Networks via
Conformal Prediction [34.87646720253128]
本稿では,自己説明型ニューラルネットワークのための新しい不確実性モデリングフレームワークを提案する。
生成した説明に対して,分布自由な不確実性モデリング性能を示す。
また、最終的な予測のために効率的で効果的な予測セットを生成することにも長けている。
論文 参考訳(メタデータ) (2024-01-03T05:51:49Z) - Incorporating Unlabelled Data into Bayesian Neural Networks [60.51580870352031]
本稿では,事前予測分布の改善を学習するために,非ラベルデータを用いた自己教師付きベイズニューラルネットワークを提案する。
自己教師付き事前予測は,従来のBNNよりも画像意味を捕えやすいことを示す。
論文 参考訳(メタデータ) (2023-04-04T12:51:35Z) - On Structural Explanation of Bias in Graph Neural Networks [40.323880315453906]
グラフニューラルネットワーク (GNN) は, 様々なグラフ解析問題において, 満足度の高い性能を示す。
GNNは特定の人口集団に対して偏見のある結果をもたらす可能性がある。
本稿では,GNNにおけるバイアスの構造的説明に関する新しい研究課題について検討する。
論文 参考訳(メタデータ) (2022-06-24T06:49:21Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Explainable Artificial Intelligence for Bayesian Neural Networks:
Towards trustworthy predictions of ocean dynamics [0.0]
ニューラルネットワークの信頼性は、不確実性を表現したり、スキルを説明する能力が欠けているため、しばしば疑問視される。
気候変動の応用など、高い利害関係の意思決定においてニューラルネットワークの利用が増加していることを考えると、これは問題となる可能性がある。
我々は、パラメータが決定論的ではなく分布であるベイズニューラルネットワーク(BNN)の実装に成功し、説明可能なAI(XAI)技術の新しい実装を適用することにより、両方の問題に対処する。
論文 参考訳(メタデータ) (2022-04-30T08:35:57Z) - Towards the Explanation of Graph Neural Networks in Digital Pathology
with Information Flows [67.23405590815602]
グラフニューラルネットワーク(GNN)は、デジタル病理学において広く採用されている。
既存の説明者は、予測に関連する説明的部分グラフを発見する。
説明文は、予測に必要であるだけでなく、最も予測可能な領域を明らかにするのに十分である。
本稿では, IFEXPLAINERを提案する。
論文 参考訳(メタデータ) (2021-12-18T10:19:01Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Towards Fully Interpretable Deep Neural Networks: Are We There Yet? [17.88784870849724]
Deep Neural Networks(DNN)は、人工知能(AI)システムに対するユーザの信頼を妨げるブラックボックスとして振る舞う。
本報告では,本質的な解釈可能性を持つDNNの開発手法について概説する。
論文 参考訳(メタデータ) (2021-06-24T16:37:34Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。