論文の概要: Global Graph Counterfactual Explanation: A Subgraph Mapping Approach
- arxiv url: http://arxiv.org/abs/2410.19978v1
- Date: Fri, 25 Oct 2024 21:39:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:21:55.039411
- Title: Global Graph Counterfactual Explanation: A Subgraph Mapping Approach
- Title(参考訳): Global Graph Counterfactual Explanation: A Subgraph Mapping Approach
- Authors: Yinhan He, Wendy Zheng, Yaochen Zhu, Jing Ma, Saumitra Mishra, Natraj Raman, Ninghao Liu, Jundong Li,
- Abstract要約: グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
- 参考スコア(独自算出の注目度): 54.42907350881448
- License:
- Abstract: Graph Neural Networks (GNNs) have been widely deployed in various real-world applications. However, most GNNs are black-box models that lack explanations. One strategy to explain GNNs is through counterfactual explanation, which aims to find minimum perturbations on input graphs that change the GNN predictions. Existing works on GNN counterfactual explanations primarily concentrate on the local-level perspective (i.e., generating counterfactuals for each individual graph), which suffers from information overload and lacks insights into the broader cross-graph relationships. To address such issues, we propose GlobalGCE, a novel global-level graph counterfactual explanation method. GlobalGCE aims to identify a collection of subgraph mapping rules as counterfactual explanations for the target GNN. According to these rules, substituting certain significant subgraphs with their counterfactual subgraphs will change the GNN prediction to the desired class for most graphs (i.e., maximum coverage). Methodologically, we design a significant subgraph generator and a counterfactual subgraph autoencoder in our GlobalGCE, where the subgraphs and the rules can be effectively generated. Extensive experiments demonstrate the superiority of our GlobalGCE compared to existing baselines. Our code can be found at https://anonymous.4open.science/r/GlobalGCE-92E8.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
しかし、ほとんどのGNNは説明に欠けるブラックボックスモデルである。
GNNを説明するための戦略の1つは、GNN予測を変更する入力グラフ上で最小の摂動を見つけることを目的とした、反実的説明である。
GNNのカウンターファクト的説明に関する既存の研究は、主に、情報過負荷に悩まされ、より広範なクロスグラフ関係に関する洞察が欠如している地域レベルの視点(すなわち、個々のグラフに対してカウンターファクト的説明を生成すること)に焦点を当てている。
このような問題に対処するため,我々はグローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
GlobalGCEは、対象のGNNに対する偽の説明として、サブグラフマッピングルールの集合を識別することを目的としている。
これらの規則によれば、ある重要な部分グラフをその反ファクト部分グラフで置換すると、ほとんどのグラフ(すなわち最大カバレッジ)に対して、GNN予測を望ましいクラスに変更する。
提案手法は,GlobalGCEにおける有意な部分グラフ生成器と反実効的な部分グラフオートエンコーダを設計し,その部分グラフとルールを効果的に生成する。
大規模な実験は、GlobalGCEが既存のベースラインよりも優れていることを示す。
私たちのコードはhttps://anonymous.4open.science/r/GlobalGCE-92E8で確認できます。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Global Counterfactual Explainer for Graph Neural Networks [8.243944711755617]
グラフニューラルネットワーク(GNN)は、計算生物学、自然言語処理、コンピュータセキュリティなど、さまざまな分野に応用されている。
GNNはブラックボックス機械学習モデルであるため、GNNの予測を説明する必要性が高まっている。
既存のGNNの非現実的説明法は、インスタンス固有の局所的推論に限られる。
論文 参考訳(メタデータ) (2022-10-21T02:46:35Z) - Global Explainability of GNNs via Logic Combination of Learned Concepts [11.724402780594257]
我々はGLGExplainer (Global Logic-based GNN Explainer)を提案する。
GLGExplainerは、正確で人間の解釈可能なグローバルな説明を提供する。
抽出された公式はモデル予測に忠実であり、モデルによって学習された時に誤った規則に関する洞察を提供する点である。
論文 参考訳(メタデータ) (2022-10-13T16:30:03Z) - Imbalanced Graph Classification via Graph-of-Graph Neural Networks [16.589373163769853]
グラフニューラルネットワーク(GNN)は、グラフの分類ラベルを識別するグラフ表現の学習において、前例のない成功を収めている。
本稿では,グラフ不均衡問題を軽減する新しいフレームワークであるグラフ・オブ・グラフニューラルネットワーク(G$2$GNN)を提案する。
提案したG$2$GNNは,F1-macroとF1-microのスコアにおいて,多くのベースラインを約5%上回る性能を示した。
論文 参考訳(メタデータ) (2021-12-01T02:25:47Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。