論文の概要: Verifying Relational Explanations: A Probabilistic Approach
- arxiv url: http://arxiv.org/abs/2401.02703v1
- Date: Fri, 5 Jan 2024 08:14:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 15:42:06.909005
- Title: Verifying Relational Explanations: A Probabilistic Approach
- Title(参考訳): 関係説明の検証:確率的アプローチ
- Authors: Abisha Thapa Magar, Anup Shakya, Somdeb Sarkhel, Deepak Venugopal
- Abstract要約: 我々は,GNNExplainerによる説明の不確実性を評価する手法を開発した。
説明において不確実性を定量化する因子グラフモデルを学習する。
いくつかのデータセットで得られた結果は,GNNExplainerによる説明の検証に有効であることを示している。
- 参考スコア(独自算出の注目度): 2.113770213797994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explanations on relational data are hard to verify since the explanation
structures are more complex (e.g. graphs). To verify interpretable explanations
(e.g. explanations of predictions made in images, text, etc.), typically human
subjects are used since it does not necessarily require a lot of expertise.
However, to verify the quality of a relational explanation requires expertise
and is hard to scale-up. GNNExplainer is arguably one of the most popular
explanation methods for Graph Neural Networks. In this paper, we develop an
approach where we assess the uncertainty in explanations generated by
GNNExplainer. Specifically, we ask the explainer to generate explanations for
several counterfactual examples. We generate these examples as symmetric
approximations of the relational structure in the original data. From these
explanations, we learn a factor graph model to quantify uncertainty in an
explanation. Our results on several datasets show that our approach can help
verify explanations from GNNExplainer by reliably estimating the uncertainty of
a relation specified in the explanation.
- Abstract(参考訳): 関係データに関する説明は、説明構造がより複雑である(グラフなど)ため、検証が難しい。
解釈可能な説明(画像、テキスト等による予測の説明など)を検証するため、人間は必ずしも専門知識を多く必要としないため、一般的に使用される。
しかし、関係説明の品質を検証するには専門知識が必要であり、スケールアップが難しい。
gnnexplainerはおそらくグラフニューラルネットワークの最も一般的な説明方法の1つである。
本稿では,GNNExplainerによる説明の不確実性を評価する手法を開発する。
具体的には,いくつかの実例について説明を依頼する。
これらの例を元のデータの関係構造の対称近似として生成する。
これらの説明から、説明において不確実性を定量化する因子グラフモデルを学ぶ。
いくつかのデータセットから得られた結果から,GNNExplainerによる説明の不確かさを確実に推定することにより,GNNExplainerによる説明の検証に有効であることが示唆された。
関連論文リスト
- GANExplainer: GAN-based Graph Neural Networks Explainer [5.641321839562139]
グラフニューラルネットワーク(GNN)が、多くのアプリケーションにおいて、特定の予測を行う理由を説明することは重要である。
本稿では,GANアーキテクチャに基づくGANExplainerを提案する。
GANExplainerは、その代替案と比較して、説明精度を最大35%改善する。
論文 参考訳(メタデータ) (2022-12-30T23:11:24Z) - MEGAN: Multi-Explanation Graph Attention Network [1.1470070927586016]
マルチエクスラレーショングラフアテンションネットワーク(MEGAN)を提案する。
既存のグラフ説明可能性法とは異なり、ネットワークは複数のチャネルに沿ってノードとエッジの属性の説明を生成することができる。
我々の注意に基づくネットワークは完全に差別化可能であり、説明を指導的な方法で積極的に訓練することができる。
論文 参考訳(メタデータ) (2022-11-23T16:10:13Z) - Toward Multiple Specialty Learners for Explaining GNNs via Online
Knowledge Distillation [0.17842332554022688]
グラフニューラルネットワーク(GNN)は、多くのアプリケーションやシステムにおいてますます普及し、それらの予測を説明する必要がある。
そこで我々はSCALEという新しいGNN説明フレームワークを提案する。
トレーニングにおいて、ブラックボックスGNNモデルは、オンライン知識蒸留パラダイムに基づいて学習者をガイドする。
具体的には、エッジマスキングと再起動手順によるランダムウォークを実行し、グラフレベルとノードレベルの予測の構造的説明を提供する。
論文 参考訳(メタデータ) (2022-10-20T08:44:57Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - PGM-Explainer: Probabilistic Graphical Model Explanations for Graph
Neural Networks [27.427529601958334]
グラフニューラルネットワーク(GNN)のための確率的グラフモデル(PGM)モデル非依存の説明器であるPGM-Explainerを提案する。
説明すべき予測が与えられた場合、PGM-Explainerは重要なグラフコンポーネントを特定し、その予測を近似したPGM形式で説明を生成する。
PGM-Explainerは,多くのベンチマークタスクにおいて既存の説明器よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-10-12T15:33:13Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。