論文の概要: CF-GNNExplainer: Counterfactual Explanations for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2102.03322v1
- Date: Fri, 5 Feb 2021 17:58:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 14:50:16.504020
- Title: CF-GNNExplainer: Counterfactual Explanations for Graph Neural Networks
- Title(参考訳): CF-GN Explainer: グラフニューラルネットワークの反実例
- Authors: Ana Lucic, Maartje ter Hoeve, Gabriele Tolomei, Maarten de Rijke,
Fabrizio Silvestri
- Abstract要約: グラフニューラルネットワーク(GNN)は、現実世界のアプリケーションにおいて、ますます有望であることが示されている。
本稿では, CF-GNNExplainerを提案する。
- 参考スコア(独自算出の注目度): 40.47070962945751
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have shown increasing promise in real-world
applications, which has caused an increased interest in understanding their
predictions. However, existing methods for explaining predictions from GNNs do
not provide an opportunity for recourse: given a prediction for a particular
instance, we want to understand how the prediction can be changed. We propose
CF-GNNExplainer: the first method for generating counterfactual explanations
for GNNs, i.e., the minimal perturbations to the input graph data such that the
prediction changes. Using only edge deletions, we find that we are able to
generate counterfactual examples for the majority of instances across three
widely used datasets for GNN explanations, while removing less than 3 edges on
average, with at least 94% accuracy. This indicates that CF-GNNExplainer
primarily removes edges that are crucial for the original predictions,
resulting in minimal counterfactual examples.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、現実世界のアプリケーションで期待が高まり、その予測を理解することへの関心が高まっている。
しかし、GNNから予測を説明する既存の方法は、リコースの機会を提供しません。特定のインスタンスの予測を考えると、予測を変更する方法を理解したいのです。
CF-GNNExplainer:GNNsの反実説明を生成する最初の方法、すなわち、予測が変化するような入力グラフデータへの最小限の摂動を提案する。
エッジ削除のみを使用して、GNN説明のために広く使用されている3つのデータセットにまたがるほとんどのインスタンスの反実例を生成し、平均で3つ未満のエッジを削除し、少なくとも94%の精度で生成することができます。
これは、CF-GNNExplainerが元々の予測に不可欠なエッジを取り除き、最小限の偽例をもたらすことを示している。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - Empowering Counterfactual Reasoning over Graph Neural Networks through
Inductivity [7.094238868711952]
グラフニューラルネットワーク(GNN)には、薬物発見、レコメンデーションエンジン、チップ設計など、さまざまな実用的応用がある。
因果推論は、GNNの入力グラフの変更を最小限に抑えて予測を変更するために用いられる。
論文 参考訳(メタデータ) (2023-06-07T23:40:18Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Towards the Explanation of Graph Neural Networks in Digital Pathology
with Information Flows [67.23405590815602]
グラフニューラルネットワーク(GNN)は、デジタル病理学において広く採用されている。
既存の説明者は、予測に関連する説明的部分グラフを発見する。
説明文は、予測に必要であるだけでなく、最も予測可能な領域を明らかにするのに十分である。
本稿では, IFEXPLAINERを提案する。
論文 参考訳(メタデータ) (2021-12-18T10:19:01Z) - Explaining GNN over Evolving Graphs using Information Flow [12.33508497537769]
グラフニューラルネットワーク(GNN)は、これらの応用の最先端でありながら、人間には不明瞭である。
本稿では,計算グラフ上の経路に対する予測の変化を一意に分解する公理的帰属法を提案する。
予測の進化を説明する経路を最適に選択するために,新しい凸最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-19T04:29:38Z) - Robust Counterfactual Explanations on Graph Neural Networks [42.91881080506145]
高速アプリケーションにおけるグラフニューラルネットワーク(GNN)の大規模展開は、ノイズに対して堅牢な説明を強く要求する。
既存のほとんどの手法は、予測と強い相関関係を持つ入力グラフのサブグラフを識別することで説明を生成する。
類似の入力グラフ上でGNNの共通決定論理を明示的にモデル化することにより,GNNの堅牢な反実的説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2021-07-08T19:50:00Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。