論文の概要: Quantifying the Intrinsic Usefulness of Attributional Explanations for
Graph Neural Networks with Artificial Simulatability Studies
- arxiv url: http://arxiv.org/abs/2305.15961v1
- Date: Thu, 25 May 2023 11:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 15:28:19.868418
- Title: Quantifying the Intrinsic Usefulness of Attributional Explanations for
Graph Neural Networks with Artificial Simulatability Studies
- Title(参考訳): 人工シミュラビリティ研究を用いたグラフニューラルネットワークの属性記述の本質的有用性の定量化
- Authors: Jonas Teufel, Luca Torresi, Pascal Friederich
- Abstract要約: 人工的なシミュラビリティの研究をグラフニューラルネットワークの領域に拡張する。
コストのかかる人為的な試行の代わりに、説明監督可能なグラフニューラルネットワークを使用して、シミュラビリティーの研究を行います。
関連する説明は、グラフニューラルネットワークのサンプル効率を大幅に向上させる可能性がある。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the increasing relevance of explainable AI, assessing the quality of
explanations remains a challenging issue. Due to the high costs associated with
human-subject experiments, various proxy metrics are often used to
approximately quantify explanation quality. Generally, one possible
interpretation of the quality of an explanation is its inherent value for
teaching a related concept to a student. In this work, we extend artificial
simulatability studies to the domain of graph neural networks. Instead of
costly human trials, we use explanation-supervisable graph neural networks to
perform simulatability studies to quantify the inherent usefulness of
attributional graph explanations. We perform an extensive ablation study to
investigate the conditions under which the proposed analyses are most
meaningful. We additionally validate our methods applicability on real-world
graph classification and regression datasets. We find that relevant
explanations can significantly boost the sample efficiency of graph neural
networks and analyze the robustness towards noise and bias in the explanations.
We believe that the notion of usefulness obtained from our proposed
simulatability analysis provides a dimension of explanation quality that is
largely orthogonal to the common practice of faithfulness and has great
potential to expand the toolbox of explanation quality assessments,
specifically for graph explanations.
- Abstract(参考訳): 説明可能なAIの関連性が高まっているにもかかわらず、説明の質を評価することは難しい問題である。
人体実験に伴う高コストのため、説明品質の定量化に様々なプロキシ指標が用いられることが多い。
一般に、説明の質の1つの解釈は、生徒に関連する概念を教えることの本質的な価値である。
本研究では,人工的なシミュラビリティ研究をグラフニューラルネットワークの領域に拡張する。
コストのかかる人間実験の代わりに、説明教師ありグラフニューラルネットワークを用いて、帰属グラフ説明の本質的有用性を定量化する。
提案する解析がもっとも有意義な条件を検討するため,広範なアブレーション研究を行う。
さらに,実世界のグラフ分類と回帰データセットに適用性を検証する。
関連する説明は、グラフニューラルネットワークのサンプル効率を大幅に向上させ、説明のノイズやバイアスに対するロバスト性を分析することができる。
提案したシミュラビリティ分析から得られた有用性の概念は、一般的な忠実さの実践とほぼ直交する説明品質の次元を提供し、特にグラフ説明において、説明品質評価のツールボックスを拡張する大きな可能性を秘めている。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - PAC Learnability under Explanation-Preserving Graph Perturbations [15.83659369727204]
グラフニューラルネットワーク(GNN)はグラフ上で動作し、グラフ構造化データの複雑な関係と依存関係を活用する。
グラフ説明は、その分類ラベルに関して入力グラフの「ほぼ」統計量である部分グラフである。
本研究は、GNNの設計と訓練において、そのような摂動不変性を利用する2つの方法を検討する。
論文 参考訳(メタデータ) (2024-02-07T17:23:15Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - XInsight: Revealing Model Insights for GNNs with Flow-based Explanations [0.0]
薬物発見のような多くの高度な応用は、モデルから人間には理解できない説明を必要とする。
我々は,GFlowNetsを用いてモデル説明の分布を生成する,XInsightと呼ばれるGNNのための説明可能性アルゴリズムを提案する。
QSAR モデルを用いて生成した化合物を解析し,XInsight の説明の有用性を示す。
論文 参考訳(メタデータ) (2023-06-07T21:25:32Z) - MEGAN: Multi-Explanation Graph Attention Network [1.1470070927586016]
マルチエクスラレーショングラフアテンションネットワーク(MEGAN)を提案する。
既存のグラフ説明可能性法とは異なり、ネットワークは複数のチャネルに沿ってノードとエッジの属性の説明を生成することができる。
我々の注意に基づくネットワークは完全に差別化可能であり、説明を指導的な方法で積極的に訓練することができる。
論文 参考訳(メタデータ) (2022-11-23T16:10:13Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - A Heterogeneous Graph with Factual, Temporal and Logical Knowledge for
Question Answering Over Dynamic Contexts [81.4757750425247]
動的テキスト環境における質問応答について検討する。
構築したグラフ上にグラフニューラルネットワークを構築し,エンドツーエンドでモデルをトレーニングする。
論文 参考訳(メタデータ) (2020-04-25T04:53:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。