論文の概要: Debiasing Graph Neural Networks via Learning Disentangled Causal
Substructure
- arxiv url: http://arxiv.org/abs/2209.14107v1
- Date: Wed, 28 Sep 2022 13:55:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 16:11:23.524101
- Title: Debiasing Graph Neural Networks via Learning Disentangled Causal
Substructure
- Title(参考訳): 遠絡因果構造学習によるグラフニューラルネットワークの劣化
- Authors: Shaohua Fan, Xiao Wang, Yanhu Mo, Chuan Shi, Jian Tang
- Abstract要約: 本稿では、重度バイアスのあるトレーニンググラフについて、グラフ分類調査を行う。
我々は、GNNが常に決定を下すために急激な相関関係を探索する傾向があることに気付きました。
本稿では、因果部分構造とバイアス部分構造を学習するための一般的な非絡み合いGNNフレームワークを提案する。
- 参考スコア(独自算出の注目度): 46.86463923605841
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most Graph Neural Networks (GNNs) predict the labels of unseen graphs by
learning the correlation between the input graphs and labels. However, by
presenting a graph classification investigation on the training graphs with
severe bias, surprisingly, we discover that GNNs always tend to explore the
spurious correlations to make decision, even if the causal correlation always
exists. This implies that existing GNNs trained on such biased datasets will
suffer from poor generalization capability. By analyzing this problem in a
causal view, we find that disentangling and decorrelating the causal and bias
latent variables from the biased graphs are both crucial for debiasing.
Inspiring by this, we propose a general disentangled GNN framework to learn the
causal substructure and bias substructure, respectively. Particularly, we
design a parameterized edge mask generator to explicitly split the input graph
into causal and bias subgraphs. Then two GNN modules supervised by
causal/bias-aware loss functions respectively are trained to encode causal and
bias subgraphs into their corresponding representations. With the disentangled
representations, we synthesize the counterfactual unbiased training samples to
further decorrelate causal and bias variables. Moreover, to better benchmark
the severe bias problem, we construct three new graph datasets, which have
controllable bias degrees and are easier to visualize and explain. Experimental
results well demonstrate that our approach achieves superior generalization
performance over existing baselines. Furthermore, owing to the learned edge
mask, the proposed model has appealing interpretability and transferability.
Code and data are available at: https://github.com/googlebaba/DisC.
- Abstract(参考訳): ほとんどのグラフニューラルネットワーク(GNN)は、入力グラフとラベルの相関を学習することで、目に見えないグラフのラベルを予測する。
しかし,厳格なバイアスを伴うトレーニンググラフのグラフ分類調査を行った結果,gnnは因果相関が常に存在する場合でも,散発的な相関を常に探究する傾向がみられた。
これは、そのようなバイアス付きデータセットでトレーニングされた既存のGNNが、一般化能力の低下に悩まされることを意味する。
この問題を因果的視点で分析することで、偏りのあるグラフから因果変数とバイアス潜在変数の分離と分離が両方ともデバイアスに不可欠であることが分かる。
そこで本研究では, 因果部分構造とバイアス部分構造をそれぞれ学習するためのgnnフレームワークを提案する。
特に、入力グラフを因果グラフとバイアスグラフに明示的に分割するパラメータ化エッジマスク生成器を設計する。
次に2つのGNNモジュールをそれぞれ因果的/偏見的損失関数で教師し、因果的および偏見的部分グラフを対応する表現に符号化する。
異種表現を用いて,反事実的非バイアストレーニングサンプルを合成し,因果変数とバイアス変数をさらに分離する。
さらに, 厳密なバイアス問題を改善するために, 制御可能なバイアス度を有し, 可視化や説明が容易な3つのグラフデータセットを構築した。
実験の結果,既存のベースラインよりも優れた一般化性能が得られた。
さらに,学習したエッジマスクにより,提案手法は解釈性と伝達性に訴える。
コードとデータは、https://github.com/googlebaba/DisC.comで入手できる。
関連論文リスト
- Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Deconfounded Training for Graph Neural Networks [98.06386851685645]
本稿では, コンバウンディング効果を緩和し, 臨界情報に対するラッチを緩和する新しいDecon Training(DTP)のパラダイムを提案する。
具体的には、注意モジュールを用いて臨界部分グラフと自明部分グラフをアンタングル化する。
これにより、GNNは、ラベルとの関係が複数のディストリビューションで堅牢である、より信頼性の高いサブグラフをキャプチャできる。
論文 参考訳(メタデータ) (2021-12-30T15:22:35Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - Graph Classification by Mixture of Diverse Experts [67.33716357951235]
我々は,不均衡なグラフ分類に多様な専門家の混在を利用したフレームワークであるGraphDIVEを提案する。
GraphDIVEは、分割と並列の原則により、不均衡なグラフデータセットを複数のサブセットに分割するゲーティングネットワークを採用しています。
実世界の不均衡グラフデータセットに関する実験は、GraphDIVEの有効性を示している。
論文 参考訳(メタデータ) (2021-03-29T14:03:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。