論文の概要: Global Counterfactual Explainer for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2210.11695v1
- Date: Fri, 21 Oct 2022 02:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:38:12.764515
- Title: Global Counterfactual Explainer for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのための大域的対物説明器
- Authors: Mert Kosan, Zexi Huang, Sourav Medya, Sayan Ranu and Ambuj Singh
- Abstract要約: グラフニューラルネットワーク(GNN)は、計算生物学、自然言語処理、コンピュータセキュリティなど、さまざまな分野に応用されている。
GNNはブラックボックス機械学習モデルであるため、GNNの予測を説明する必要性が高まっている。
既存のGNNの非現実的説明法は、インスタンス固有の局所的推論に限られる。
- 参考スコア(独自算出の注目度): 8.243944711755617
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) find applications in various domains such as
computational biology, natural language processing, and computer security.
Owing to their popularity, there is an increasing need to explain GNN
predictions since GNNs are black-box machine learning models. One way to
address this is counterfactual reasoning where the objective is to change the
GNN prediction by minimal changes in the input graph. Existing methods for
counterfactual explanation of GNNs are limited to instance-specific local
reasoning. This approach has two major limitations of not being able to offer
global recourse policies and overloading human cognitive ability with too much
information. In this work, we study the global explainability of GNNs through
global counterfactual reasoning. Specifically, we want to find a small set of
representative counterfactual graphs that explains all input graphs. Towards
this goal, we propose GCFExplainer, a novel algorithm powered by
vertex-reinforced random walks on an edit map of graphs with a greedy summary.
Extensive experiments on real graph datasets show that the global explanation
from GCFExplainer provides important high-level insights of the model behavior
and achieves a 46.9% gain in recourse coverage and a 9.5% reduction in recourse
cost compared to the state-of-the-art local counterfactual explainers.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、計算生物学、自然言語処理、コンピュータセキュリティなど、さまざまな分野で応用されている。
その人気から、GNNはブラックボックス機械学習モデルであるため、GNNの予測を説明する必要性が高まっている。
これに対処する1つの方法は、入力グラフの最小限の変更でgnn予測を変更することを目的とした、事実上の推論である。
既存のGNNの非現実的説明法は、インスタンス固有の局所的推論に限られる。
このアプローチには,グローバルなレコメンデーションポリシの提供と,情報過剰による人間の認知能力の過負荷という,2つの大きな制限がある。
本研究では,グローバルカウンターファクト推論によるGNNのグローバルな説明可能性について検討する。
具体的には、すべての入力グラフを説明する代表的反実グラフの小さなセットを見つけたいと思っています。
そこで本研究では,グラフの編集マップ上に頂点強制ランダムウォークを用いた新しいアルゴリズムgcfexplainerを提案する。
実グラフデータセットに関する広範な実験により、gcfexplainerによるグローバル説明は、モデルの振る舞いに関する重要なハイレベルな洞察を提供し、リコースカバレッジの46.9%向上とリコースコストの9.5%削減を達成した。
関連論文リスト
- Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks [25.94529851210956]
本稿では,異なるグラフニューラルネットワーク(GNN)に対して,メッセージパッシング方式であるGNNInterpreterに従うモデルに依存しないモデルレベルの説明手法を提案する。
GNNInterpreterは、GNNが検出しようとする最も識別性の高いグラフパターンを生成する確率的生成グラフ分布を学習する。
既存の研究と比較すると、GNNInterpreterはノードとエッジの異なるタイプの説明グラフを生成する際に、より柔軟で計算的に効率的である。
論文 参考訳(メタデータ) (2022-09-15T07:45:35Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。