論文の概要: On Consistency in Graph Neural Network Interpretation
- arxiv url: http://arxiv.org/abs/2205.13733v1
- Date: Fri, 27 May 2022 02:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 15:26:10.755300
- Title: On Consistency in Graph Neural Network Interpretation
- Title(参考訳): グラフニューラルネットワーク解釈における一貫性について
- Authors: Tianxiang Zhao, Dongsheng Luo, Xiang Zhang, Suhang Wang
- Abstract要約: インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
- 参考スコア(独自算出の注目度): 34.25952902469481
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncovering rationales behind predictions of graph neural networks (GNNs) has
received increasing attention over recent years. Instance-level GNN explanation
aims to discover critical input elements, like nodes or edges, that the target
GNN relies upon for making predictions. These identified sub-structures can
provide interpretations of GNN's behavior. Though various algorithms are
proposed, most of them formalize this task by searching the minimal subgraph
which can preserve original predictions. An inductive bias is deep-rooted in
this framework: the same output cannot guarantee that two inputs are processed
under the same rationale. Consequently, they have the danger of providing
spurious explanations and fail to provide consistent explanations. Applying
them to explain weakly-performed GNNs would further amplify these issues. To
address the issues, we propose to obtain more faithful and consistent
explanations of GNNs. After a close examination on predictions of GNNs from the
causality perspective, we attribute spurious explanations to two typical
reasons: confounding effect of latent variables like distribution shift, and
causal factors distinct from the original input. Motivated by the observation
that both confounding effects and diverse causal rationales are encoded in
internal representations, we propose a simple yet effective countermeasure by
aligning embeddings. This new objective can be incorporated into existing GNN
explanation algorithms with no effort. We implement both a simplified version
based on absolute distance and a distribution-aware version based on anchors.
Experiments on $5$ datasets validate its effectiveness, and theoretical
analysis shows that it is in effect optimizing a more faithful explanation
objective in design, which further justifies the proposed approach.
- Abstract(参考訳): 近年,グラフニューラルネットワーク(GNN)の予測の背後にある理論的根拠が注目されている。
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
これらの同定されたサブ構造は、GNNの振る舞いの解釈を提供することができる。
様々なアルゴリズムが提案されているが、その多くはオリジナルの予測を保存できる最小部分グラフを探索することでこのタスクを形式化する。
帰納バイアスはこのフレームワークで深く根付いており、同じ出力は2つの入力が同じ論理の下で処理されることを保証することはできない。
その結果、彼らは急激な説明をし、一貫した説明をしない危険がある。
弱いパフォーマンスのGNNを説明するためにそれらを適用することは、これらの問題をさらに増幅する。
この問題に対処するために,我々はより忠実で一貫したGNNの説明を得ることを提案する。
因果関係の観点からのGNNの予測を精査した結果,分布シフトのような潜伏変数の収束効果と,元の入力と異なる因果要因の2つの典型的理由が説明された。
共起効果と多様な因果的理性の両方が内部表現に符号化されているという観察により,埋め込みの整列による簡易かつ効果的な対策を提案する。
この新たな目的は、既存のGNN説明アルゴリズムに無駄なく組み込むことができる。
絶対距離に基づく簡易バージョンとアンカーに基づく分散対応バージョンの両方を実装した。
5ドルのデータセットに関する実験は、その効果を検証し、理論的分析により、設計におけるより忠実な説明目的を最適化していることが示され、提案のアプローチをさらに正当化している。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - Empowering Counterfactual Reasoning over Graph Neural Networks through
Inductivity [7.094238868711952]
グラフニューラルネットワーク(GNN)には、薬物発見、レコメンデーションエンジン、チップ設計など、さまざまな実用的応用がある。
因果推論は、GNNの入力グラフの変更を最小限に抑えて予測を変更するために用いられる。
論文 参考訳(メタデータ) (2023-06-07T23:40:18Z) - Faithful and Consistent Graph Neural Network Explanations with Rationale
Alignment [38.66324833510402]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案され、その多くは、元の予測を保存できる最小限のサブグラフを探索することで、このタスクを形式化する。
いくつかの部分グラフは元のグラフと同じもしくは類似した出力をもたらす。
弱いパフォーマンスのGNNを説明するためにそれらを適用することは、これらの問題をさらに増幅する。
論文 参考訳(メタデータ) (2023-01-07T06:33:35Z) - On Structural Explanation of Bias in Graph Neural Networks [40.323880315453906]
グラフニューラルネットワーク (GNN) は, 様々なグラフ解析問題において, 満足度の高い性能を示す。
GNNは特定の人口集団に対して偏見のある結果をもたらす可能性がある。
本稿では,GNNにおけるバイアスの構造的説明に関する新しい研究課題について検討する。
論文 参考訳(メタデータ) (2022-06-24T06:49:21Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。