論文の概要: Explainable Artificial Intelligence for Bayesian Neural Networks:
Towards trustworthy predictions of ocean dynamics
- arxiv url: http://arxiv.org/abs/2205.00202v1
- Date: Sat, 30 Apr 2022 08:35:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 07:01:57.459640
- Title: Explainable Artificial Intelligence for Bayesian Neural Networks:
Towards trustworthy predictions of ocean dynamics
- Title(参考訳): ベイズニューラルネットワークのための説明可能な人工知能:海洋力学の信頼できる予測に向けて
- Authors: Mariana C. A. Clare and Maike Sonnewald and Redouane Lguensat and
Julie Deshayes and Venkatramani Balaji
- Abstract要約: ニューラルネットワークの信頼性は、不確実性を表現したり、スキルを説明する能力が欠けているため、しばしば疑問視される。
気候変動の応用など、高い利害関係の意思決定においてニューラルネットワークの利用が増加していることを考えると、これは問題となる可能性がある。
我々は、パラメータが決定論的ではなく分布であるベイズニューラルネットワーク(BNN)の実装に成功し、説明可能なAI(XAI)技術の新しい実装を適用することにより、両方の問題に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The trustworthiness of neural networks is often challenged because they lack
the ability to express uncertainty and explain their skill. This can be
problematic given the increasing use of neural networks in high stakes
decision-making such as in climate change applications. We address both issues
by successfully implementing a Bayesian Neural Network (BNN), where parameters
are distributions rather than deterministic, and applying novel implementations
of explainable AI (XAI) techniques. The uncertainty analysis from the BNN
provides a comprehensive overview of the prediction more suited to
practitioners' needs than predictions from a classical neural network. Using a
BNN means we can calculate the entropy (i.e. uncertainty) of the predictions
and determine if the probability of an outcome is statistically significant. To
enhance trustworthiness, we also spatially apply the two XAI techniques of
Layer-wise Relevance Propagation (LRP) and SHapley Additive exPlanation (SHAP)
values. These XAI methods reveal the extent to which the BNN is suitable and/or
trustworthy. Using two techniques gives a more holistic view of BNN skill and
its uncertainty, as LRP considers neural network parameters, whereas SHAP
considers changes to outputs. We verify these techniques using comparison with
intuition from physical theory. The differences in explanation identify
potential areas where new physical theory guided studies are needed.
- Abstract(参考訳): ニューラルネットワークの信頼性は、不確実性を表現したり、スキルを説明する能力が欠けているため、しばしば疑問視される。
気候変動の応用など、高い利害関係の意思決定におけるニューラルネットワークの利用の増加を考えると、これは問題となる可能性がある。
我々は、パラメータが決定論的ではなく分布であるベイズニューラルネットワーク(BNN)の実装に成功し、説明可能なAI(XAI)技術の新しい実装を適用することにより、両方の問題に対処する。
BNNによる不確実性分析は、古典的なニューラルネットワークからの予測よりも実践者のニーズに合った予測の包括的な概要を提供する。
BNNを用いることで、予測のエントロピー(すなわち不確実性)を計算し、結果の確率が統計的に重要であるかどうかを判断できる。
また,信頼度を高めるために,LRP(Layer-wise Relevance Propagation)とSHAP(SHAP)の2つのXAI手法を空間的に適用した。
これらのXAI手法は、BNNが適切または/または信頼できる範囲を明らかにする。
2つのテクニックを使用することで、lrpはニューラルネットワークパラメータを考慮し、shapはアウトプットの変更を考慮しながら、bnnスキルとその不確実性をより包括的に捉えることができる。
物理理論の直観との比較により,これらの手法を検証する。
説明の相違は、新しい物理理論による研究が必要な潜在的な領域を特定する。
関連論文リスト
- Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Bayesian Neural Networks with Domain Knowledge Priors [52.80929437592308]
ドメイン知識の一般的な形式をBNNに組み込むためのフレームワークを提案する。
提案したドメイン知識を用いたBNNは,標準知識のBNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-20T22:34:53Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - Sparsifying Bayesian neural networks with latent binary variables and
normalizing flows [10.865434331546126]
潜伏二元系ベイズニューラルネットワーク(LBBNN)の2つの拡張について検討する。
まず、隠れたユニットを直接サンプリングするためにLRT(Local Reparametrization trick)を用いることで、より計算効率の良いアルゴリズムが得られる。
さらに, LBBNNパラメータの変動後分布の正規化フローを用いて, 平均体ガウス分布よりも柔軟な変動後分布を学習する。
論文 参考訳(メタデータ) (2023-05-05T09:40:28Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - An out-of-distribution discriminator based on Bayesian neural network
epistemic uncertainty [0.19573380763700712]
ベイズニューラルネットワーク(Bayesian Neural Network, BNN)は、不確実性を定量化するための組み込み能力を備えた、重要なタイプのニューラルネットワークである。
本稿では,BNNにおける失語症およびてんかんの不確実性とその計算方法について論じる。
論文 参考訳(メタデータ) (2022-10-18T21:15:33Z) - Linear Leaky-Integrate-and-Fire Neuron Model Based Spiking Neural
Networks and Its Mapping Relationship to Deep Neural Networks [7.840247953745616]
スパイキングニューラルネットワーク(SNN)は、生物学的可視性や教師なし学習能力など、脳にインスパイアされた機械学習アルゴリズムである。
本稿では,リニアリーキー・インテグレート・アンド・ファイア・モデル(LIF/SNN)の生物学的パラメータとReLU-AN/Deep Neural Networks(DNN)のパラメータとの正確な数学的マッピングを確立する。
論文 参考訳(メタデータ) (2022-05-31T17:02:26Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - Explaining Bayesian Neural Networks [11.296451806040796]
XAIは、意思決定においてDeep Neural Networks(DNN)のような高度な学習マシンをより透過的にすることを目指している。
これまでのところ、BNNには、以前の重量分布を通じて、限定的な透明性(モデル透明性)が組み込まれています。
本稿では,この2つの透明性の観点を,BNNを説明するための全体論的な説明フレームワークにまとめる。
論文 参考訳(メタデータ) (2021-08-23T18:09:41Z) - Bayesian Neural Networks [0.0]
ニューラルネットワークによる予測におけるエラーを原理的に得る方法を示し、これらのエラーを特徴付ける2つの方法を提案する。
さらに、これらの2つのメソッドが実際に実施される際に、重大な落とし穴を持つ方法についても説明します。
論文 参考訳(メタデータ) (2020-06-02T09:43:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。