論文の概要: Global Counterfactual Explainer for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2210.11695v1
- Date: Fri, 21 Oct 2022 02:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:38:12.764515
- Title: Global Counterfactual Explainer for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのための大域的対物説明器
- Authors: Mert Kosan, Zexi Huang, Sourav Medya, Sayan Ranu and Ambuj Singh
- Abstract要約: グラフニューラルネットワーク(GNN)は、計算生物学、自然言語処理、コンピュータセキュリティなど、さまざまな分野に応用されている。
GNNはブラックボックス機械学習モデルであるため、GNNの予測を説明する必要性が高まっている。
既存のGNNの非現実的説明法は、インスタンス固有の局所的推論に限られる。
- 参考スコア(独自算出の注目度): 8.243944711755617
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) find applications in various domains such as
computational biology, natural language processing, and computer security.
Owing to their popularity, there is an increasing need to explain GNN
predictions since GNNs are black-box machine learning models. One way to
address this is counterfactual reasoning where the objective is to change the
GNN prediction by minimal changes in the input graph. Existing methods for
counterfactual explanation of GNNs are limited to instance-specific local
reasoning. This approach has two major limitations of not being able to offer
global recourse policies and overloading human cognitive ability with too much
information. In this work, we study the global explainability of GNNs through
global counterfactual reasoning. Specifically, we want to find a small set of
representative counterfactual graphs that explains all input graphs. Towards
this goal, we propose GCFExplainer, a novel algorithm powered by
vertex-reinforced random walks on an edit map of graphs with a greedy summary.
Extensive experiments on real graph datasets show that the global explanation
from GCFExplainer provides important high-level insights of the model behavior
and achieves a 46.9% gain in recourse coverage and a 9.5% reduction in recourse
cost compared to the state-of-the-art local counterfactual explainers.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、計算生物学、自然言語処理、コンピュータセキュリティなど、さまざまな分野で応用されている。
その人気から、GNNはブラックボックス機械学習モデルであるため、GNNの予測を説明する必要性が高まっている。
これに対処する1つの方法は、入力グラフの最小限の変更でgnn予測を変更することを目的とした、事実上の推論である。
既存のGNNの非現実的説明法は、インスタンス固有の局所的推論に限られる。
このアプローチには,グローバルなレコメンデーションポリシの提供と,情報過剰による人間の認知能力の過負荷という,2つの大きな制限がある。
本研究では,グローバルカウンターファクト推論によるGNNのグローバルな説明可能性について検討する。
具体的には、すべての入力グラフを説明する代表的反実グラフの小さなセットを見つけたいと思っています。
そこで本研究では,グラフの編集マップ上に頂点強制ランダムウォークを用いた新しいアルゴリズムgcfexplainerを提案する。
実グラフデータセットに関する広範な実験により、gcfexplainerによるグローバル説明は、モデルの振る舞いに関する重要なハイレベルな洞察を提供し、リコースカバレッジの46.9%向上とリコースコストの9.5%削減を達成した。
関連論文リスト
- Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks [25.94529851210956]
本稿では,異なるグラフニューラルネットワーク(GNN)に対して,メッセージパッシング方式であるGNNInterpreterに従うモデルに依存しないモデルレベルの説明手法を提案する。
GNNInterpreterは、GNNが検出しようとする最も識別性の高いグラフパターンを生成する確率的生成グラフ分布を学習する。
既存の研究と比較すると、GNNInterpreterはノードとエッジの異なるタイプの説明グラフを生成する際に、より柔軟で計算的に効率的である。
論文 参考訳(メタデータ) (2022-09-15T07:45:35Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。