論文の概要: Carefully choose the baseline: Lessons learned from applying XAI
attribution methods for regression tasks in geoscience
- arxiv url: http://arxiv.org/abs/2208.09473v1
- Date: Fri, 19 Aug 2022 17:54:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-22 17:42:40.623152
- Title: Carefully choose the baseline: Lessons learned from applying XAI
attribution methods for regression tasks in geoscience
- Title(参考訳): 基礎を慎重に選ぶ - 地学における回帰タスクへのxai帰属法の適用から学んだ教訓
- Authors: Antonios Mamalakis, Elizabeth A. Barnes, Imme Ebert-Uphoff
- Abstract要約: eXplainable Artificial Intelligence (XAI) の手法は、ニューラルネットワーク(NN)の意思決定戦略に関する洞察を得るために、地球科学的応用に用いられている。
そこで本研究では,入力に対する予測に起因するタスクには,単一解が存在しないことについて論じる。
本研究は,異なる理科の質問に対する回答に対応するため,異なる基礎性を考えると,属性が著しく異なることを示す。
- 参考スコア(独自算出の注目度): 0.02578242050187029
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Methods of eXplainable Artificial Intelligence (XAI) are used in
geoscientific applications to gain insights into the decision-making strategy
of Neural Networks (NNs) highlighting which features in the input contribute
the most to a NN prediction. Here, we discuss our lesson learned that the task
of attributing a prediction to the input does not have a single solution.
Instead, the attribution results and their interpretation depend greatly on the
considered baseline (sometimes referred to as reference point) that the XAI
method utilizes; a fact that has been overlooked so far in the literature. This
baseline can be chosen by the user or it is set by construction in the method s
algorithm, often without the user being aware of that choice. We highlight that
different baselines can lead to different insights for different science
questions and, thus, should be chosen accordingly. To illustrate the impact of
the baseline, we use a large ensemble of historical and future climate
simulations forced with the SSP3-7.0 scenario and train a fully connected NN to
predict the ensemble- and global-mean temperature (i.e., the forced global
warming signal) given an annual temperature map from an individual ensemble
member. We then use various XAI methods and different baselines to attribute
the network predictions to the input. We show that attributions differ
substantially when considering different baselines, as they correspond to
answering different science questions. We conclude by discussing some important
implications and considerations about the use of baselines in XAI research.
- Abstract(参考訳): eXplainable Artificial Intelligence (XAI) の手法は、ニューラルネットワーク(NN)の意思決定戦略に関する洞察を得るために、どの特徴がNN予測に最も寄与しているかを明らかにするために、地学的な応用に使用される。
ここでは、入力に予測を帰属させるタスクには、単一の解がないという教訓について論じる。
むしろ、帰属の結果とその解釈は、XAI法が活用する基準線(参照点と呼ばれることもある)に大きく依存している。
このベースラインは、ユーザが選択することも、メソッドsアルゴリズムの構築によって設定することもできる。
異なるベースラインが異なる科学の質問に対して異なる洞察をもたらす可能性があることを強調し、それに従って選択すべきである。
我々は,SSP3-7.0シナリオで強制された歴史的・将来の気候シミュレーションの大規模なアンサンブルを用いて,個別のアンサンブルメンバーから年次温度マップを与えられたアンサンブル及びグローバル平均気温(すなわち,強制地球温暖化信号)を予測するために,完全に接続されたNNを訓練する。
次に、入力にネットワーク予測を属性付けるために、様々なXAIメソッドと異なるベースラインを使用します。
異なるベースラインを考えるとき, 帰属関係は, 異なる科学質問への回答に対応するため, 大きく異なることが示された。
最後に、xai研究におけるベースラインの利用に関する重要な意味と考察について論じる。
関連論文リスト
- Bayesian Neural Networks with Domain Knowledge Priors [52.80929437592308]
ドメイン知識の一般的な形式をBNNに組み込むためのフレームワークを提案する。
提案したドメイン知識を用いたBNNは,標準知識のBNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-20T22:34:53Z) - On Discprecncies between Perturbation Evaluations of Graph Neural
Network Attributions [49.8110352174327]
我々は、グラフ領域で以前に検討されていない視点から帰属法を評価する:再学習。
中心となる考え方は、属性によって識別される重要な(あるいは重要でない)関係でネットワークを再訓練することである。
我々は4つの最先端GNN属性法と5つの合成および実世界のグラフ分類データセットについて分析を行った。
論文 参考訳(メタデータ) (2024-01-01T02:03:35Z) - Finding the right XAI method -- A Guide for the Evaluation and Ranking of Explainable AI Methods in Climate Science [2.8877394238963214]
気候の文脈でXAI評価を導入し、異なる所望の説明特性について論じる。
XAI法では, 階層的関係伝播, 入力時間勾配が, 強靭性, 忠実性, 複雑度を示すことがわかった。
XAI手法のロバスト性,複雑性,ローカライゼーションスキルに関して,アーキテクチャに依存した性能差がみられた。
論文 参考訳(メタデータ) (2023-03-01T16:54:48Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - Do Deep Neural Networks Always Perform Better When Eating More Data? [82.6459747000664]
Identically Independent Distribution(IID)とOut of Distribution(OOD)による実験を設計する。
IID条件下では、情報の量は各サンプルの効果度、サンプルの寄与度、クラス間の差がクラス情報の量を決定する。
OOD条件下では、試料のクロスドメイン度が寄与を決定づけ、無関係元素によるバイアス適合はクロスドメインの重要な要素である。
論文 参考訳(メタデータ) (2022-05-30T15:40:33Z) - Investigating the fidelity of explainable artificial intelligence
methods for applications of convolutional neural networks in geoscience [0.02578242050187029]
CNNの意思決定戦略を説明する手段として、説明可能な人工知能(XAI)の手法が人気を集めている。
ここでは,最もポピュラーなXAI手法の相互比較を確立し,地質学的応用のためのCNN決定を説明する上で,それらの忠実さについて検討する。
論文 参考訳(メタデータ) (2022-02-07T18:47:15Z) - Neural Network Attribution Methods for Problems in Geoscience: A Novel
Synthetic Benchmark Dataset [0.05156484100374058]
我々は、地質科学における回帰問題に対するアトリビューションベンチマークデータセットを生成するフレームワークを提供する。
シミュレーションの基盤となる機能を学ぶために、完全に接続されたネットワークを訓練する。
異なるXAI手法から得られた推定帰属ヒートマップと基底真理を比較して,特定のXAI手法が良好に機能する事例を同定する。
論文 参考訳(メタデータ) (2021-03-18T03:39:17Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - A Heterogeneous Graph with Factual, Temporal and Logical Knowledge for
Question Answering Over Dynamic Contexts [81.4757750425247]
動的テキスト環境における質問応答について検討する。
構築したグラフ上にグラフニューラルネットワークを構築し,エンドツーエンドでモデルをトレーニングする。
論文 参考訳(メタデータ) (2020-04-25T04:53:54Z) - Ground Truth Evaluation of Neural Network Explanations with CLEVR-XAI [12.680653816836541]
我々は,CLEVR視覚質問応答タスクに基づくXAI手法の基盤的真理に基づく評価フレームワークを提案する。
本フレームワークは,(1)選択的,(2)制御,(3)リアルなテストベッドをニューラルネットワークの説明評価のために提供する。
論文 参考訳(メタデータ) (2020-03-16T14:43:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。