論文の概要: Empowering Counterfactual Reasoning over Graph Neural Networks through
Inductivity
- arxiv url: http://arxiv.org/abs/2306.04835v1
- Date: Wed, 7 Jun 2023 23:40:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 17:02:33.527363
- Title: Empowering Counterfactual Reasoning over Graph Neural Networks through
Inductivity
- Title(参考訳): インダクティビティによるグラフニューラルネットワーク上の反事実推論の強化
- Authors: Samidha Verma, Burouj Armgaan, Sourav Medya, Sayan Ranu
- Abstract要約: グラフニューラルネットワーク(GNN)には、薬物発見、レコメンデーションエンジン、チップ設計など、さまざまな実用的応用がある。
因果推論は、GNNの入力グラフの変更を最小限に抑えて予測を変更するために用いられる。
- 参考スコア(独自算出の注目度): 7.094238868711952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have various practical applications, such as
drug discovery, recommendation engines, and chip design. However, GNNs lack
transparency as they cannot provide understandable explanations for their
predictions. To address this issue, counterfactual reasoning is used. The main
goal is to make minimal changes to the input graph of a GNN in order to alter
its prediction. While several algorithms have been proposed for counterfactual
explanations of GNNs, most of them have two main drawbacks. Firstly, they only
consider edge deletions as perturbations. Secondly, the counterfactual
explanation models are transductive, meaning they do not generalize to unseen
data. In this study, we introduce an inductive algorithm called INDUCE, which
overcomes these limitations. By conducting extensive experiments on several
datasets, we demonstrate that incorporating edge additions leads to better
counterfactual results compared to the existing methods. Moreover, the
inductive modeling approach allows INDUCE to directly predict counterfactual
perturbations without requiring instance-specific training. This results in
significant computational speed improvements compared to baseline methods and
enables scalable counterfactual analysis for GNNs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)には、薬物発見、レコメンデーションエンジン、チップ設計など、さまざまな実用的応用がある。
しかし、GNNは、予測に対する理解可能な説明を提供することができないため、透明性を欠いている。
この問題に対処するために、反事実推論が用いられる。
主な目標は、予測を変更するために、GNNの入力グラフに最小限の変更を加えることである。
GNNの反実的説明のためにいくつかのアルゴリズムが提案されているが、そのほとんどは2つの主な欠点がある。
まず、エッジ削除を摂動としてのみ考える。
第二に、反実的説明モデルはトランスダクティブであり、つまり、見当たらないデータに一般化しない。
本研究では,これらの制約を克服する帰納的アルゴリズムであるinductionを導入する。
いくつかのデータセットに対して広範な実験を行うことで、エッジの追加を組み込むことで、既存の手法よりも優れた結果が得られることを示す。
さらに、インダクティブ・モデリングのアプローチにより、INDUCEはインスタンス固有のトレーニングを必要とせずに、対実的摂動を直接予測できる。
これにより、ベースライン法と比較して計算速度が大幅に向上し、GNNに対するスケーラブルな対実解析が可能となった。
関連論文リスト
- Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Robust Counterfactual Explanations on Graph Neural Networks [42.91881080506145]
高速アプリケーションにおけるグラフニューラルネットワーク(GNN)の大規模展開は、ノイズに対して堅牢な説明を強く要求する。
既存のほとんどの手法は、予測と強い相関関係を持つ入力グラフのサブグラフを識別することで説明を生成する。
類似の入力グラフ上でGNNの共通決定論理を明示的にモデル化することにより,GNNの堅牢な反実的説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2021-07-08T19:50:00Z) - CF-GNNExplainer: Counterfactual Explanations for Graph Neural Networks [40.47070962945751]
グラフニューラルネットワーク(GNN)は、現実世界のアプリケーションにおいて、ますます有望であることが示されている。
本稿では, CF-GNNExplainerを提案する。
論文 参考訳(メタデータ) (2021-02-05T17:58:14Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。