論文の概要: Discovering Invariant Rationales for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2201.12872v1
- Date: Sun, 30 Jan 2022 16:43:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 17:11:12.869797
- Title: Discovering Invariant Rationales for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークの不変式発見
- Authors: Ying-Xin Wu, Xiang Wang, An Zhang, Xiangnan He, Tat-Seng Chua
- Abstract要約: グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
- 参考スコア(独自算出の注目度): 104.61908788639052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intrinsic interpretability of graph neural networks (GNNs) is to find a small
subset of the input graph's features -- rationale -- which guides the model
prediction. Unfortunately, the leading rationalization models often rely on
data biases, especially shortcut features, to compose rationales and make
predictions without probing the critical and causal patterns. Moreover, such
data biases easily change outside the training distribution. As a result, these
models suffer from a huge drop in interpretability and predictive performance
on out-of-distribution data. In this work, we propose a new strategy of
discovering invariant rationale (DIR) to construct intrinsically interpretable
GNNs. It conducts interventions on the training distribution to create multiple
interventional distributions. Then it approaches the causal rationales that are
invariant across different distributions while filtering out the spurious
patterns that are unstable. Experiments on both synthetic and real-world
datasets validate the superiority of our DIR in terms of interpretability and
generalization ability on graph classification over the leading baselines. Code
and datasets are available at https://github.com/Wuyxin/DIR-GNN.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)の本質的な解釈可能性とは、モデル予測を導く入力グラフの機能の小さなサブセットである論理的部分集合を見つけることである。
残念なことに、主要な合理化モデルは、しばしばデータバイアス、特に近道機能に依存して、重要なパターンや因果パターンを突き止めることなく合理性を構成し、予測する。
さらに、トレーニング分布外のデータバイアスも容易に変化する。
その結果、これらのモデルは、分散データに対する解釈可能性と予測性能が大幅に低下する。
本研究では,不変理性(DIR)を発見し,本質的に解釈可能なGNNを構築するための新しい戦略を提案する。
訓練分布に対する介入を行い、複数の介入分布を作成する。
そして、異なる分布にまたがる不変な因果的合理性にアプローチし、不安定な散発的なパターンをフィルタリングする。
合成と実世界の両方のデータセットの実験は、主要なベースライン上のグラフ分類における解釈可能性および一般化能力の観点から、我々のDIRの優位性を検証する。
コードとデータセットはhttps://github.com/Wuyxin/DIR-GNNで入手できる。
関連論文リスト
- Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Interpreting Unfairness in Graph Neural Networks via Training Node
Attribution [46.384034587689136]
本稿では,GNNの不公平さを学習ノードの影響によって解釈する新たな問題について検討する。
具体的には,GNNに現れるバイアスを測定するために,確率分布分散(PDD)という新しい手法を提案する。
PDDの有効性と実世界のデータセットを用いた実験による影響評価の有効性を検証する。
論文 参考訳(メタデータ) (2022-11-25T21:52:30Z) - Debiasing Graph Neural Networks via Learning Disentangled Causal
Substructure [46.86463923605841]
本稿では、重度バイアスのあるトレーニンググラフについて、グラフ分類調査を行う。
我々は、GNNが常に決定を下すために急激な相関関係を探索する傾向があることに気付きました。
本稿では、因果部分構造とバイアス部分構造を学習するための一般的な非絡み合いGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:55:52Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。