論文の概要: Interpreting Unfairness in Graph Neural Networks via Training Node
Attribution
- arxiv url: http://arxiv.org/abs/2211.14383v1
- Date: Fri, 25 Nov 2022 21:52:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 20:26:30.998288
- Title: Interpreting Unfairness in Graph Neural Networks via Training Node
Attribution
- Title(参考訳): 学習ノード属性によるグラフニューラルネットワークの不公平性の解釈
- Authors: Yushun Dong, Song Wang, Jing Ma, Ninghao Liu, Jundong Li
- Abstract要約: 本稿では,GNNの不公平さを学習ノードの影響によって解釈する新たな問題について検討する。
具体的には,GNNに現れるバイアスを測定するために,確率分布分散(PDD)という新しい手法を提案する。
PDDの有効性と実世界のデータセットを用いた実験による影響評価の有効性を検証する。
- 参考スコア(独自算出の注目度): 46.384034587689136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as the leading paradigm for solving
graph analytical problems in various real-world applications. Nevertheless,
GNNs could potentially render biased predictions towards certain demographic
subgroups. Understanding how the bias in predictions arises is critical, as it
guides the design of GNN debiasing mechanisms. However, most existing works
overwhelmingly focus on GNN debiasing, but fall short on explaining how such
bias is induced. In this paper, we study a novel problem of interpreting GNN
unfairness through attributing it to the influence of training nodes.
Specifically, we propose a novel strategy named Probabilistic Distribution
Disparity (PDD) to measure the bias exhibited in GNNs, and develop an algorithm
to efficiently estimate the influence of each training node on such bias. We
verify the validity of PDD and the effectiveness of influence estimation
through experiments on real-world datasets. Finally, we also demonstrate how
the proposed framework could be used for debiasing GNNs. Open-source code can
be found at https://github.com/yushundong/BIND.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションにおいて、グラフ解析問題を解くための主要なパラダイムとして登場した。
それでも、GNNは特定の人口集団に偏見のある予測を施す可能性がある。
予測のバイアスがどのように生じるかを理解することは、GNNのデバイアス機構の設計を導くため重要である。
しかし、既存のほとんどの研究はGNNのデバイアスに焦点を当てているが、そのようなバイアスがどのように引き起こされるかを説明するには不足している。
本稿では,GNNの不公平さを学習ノードの影響によって解釈する新しい問題について検討する。
具体的には,gnnに現れるバイアスを測定するための確率分布差(pdd)と呼ばれる新しい戦略を提案し,そのバイアスに対する各訓練ノードの影響を効率的に推定するアルゴリズムを開発した。
PDDの有効性と実世界のデータセットを用いた実験による影響評価の有効性を検証する。
最後に、提案フレームワークがGNNのデバイアスにどのように使用できるかを示す。
オープンソースコードはhttps://github.com/yushundong/BINDで見ることができる。
関連論文リスト
- ComFairGNN: Community Fair Graph Neural Network [6.946292440025013]
グラフニューラルネットワーク(GNN)におけるコミュニティレベルのバイアスを軽減するための新しいフレームワークを提案する。
提案手法では,GNNにおける局所分布の多様さから生じるバイアスに対処する,学習可能なコアセットに基づくデバイアス機能を用いる。
論文 参考訳(メタデータ) (2024-11-07T02:04:34Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Editable Graph Neural Network for Node Classifications [43.39295712456175]
本稿では,アンダーライン編集可能なアンダーライングラフ (UnderlineEditable UnderlineGraph underlineNeural UnderlineNetworks (EGNN) を提案する。
EGNNは、モデル編集中にGNNの重みが凍結される基礎となるGNNを単純に縫う。
論文 参考訳(メタデータ) (2023-05-24T19:35:42Z) - On Structural Explanation of Bias in Graph Neural Networks [40.323880315453906]
グラフニューラルネットワーク (GNN) は, 様々なグラフ解析問題において, 満足度の高い性能を示す。
GNNは特定の人口集団に対して偏見のある結果をもたらす可能性がある。
本稿では,GNNにおけるバイアスの構造的説明に関する新しい研究課題について検討する。
論文 参考訳(メタデータ) (2022-06-24T06:49:21Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Debiased Graph Neural Networks with Agnostic Label Selection Bias [59.61301255860836]
既存のグラフニューラルネットワーク(GNN)のほとんどは、データの選択バイアスを考慮せずに提案されている。
本稿では,デコリレーションレギュレータを区別した新しいデバイアスドグラフニューラルネットワーク(DGNN)を提案する。
DGNNは既存のGNNを強化するフレキシブルなフレームワークである。
論文 参考訳(メタデータ) (2022-01-19T16:50:29Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - EDITS: Modeling and Mitigating Data Bias for Graph Neural Networks [29.974829042502375]
本研究では,属性ネットワークのバイアスを軽減するためのフレームワーク EDITS を開発した。
EDITSはモデルに依存しない方法で動作し、ダウンストリームタスクに適用される特定のGNNとは独立している。
論文 参考訳(メタデータ) (2021-08-11T14:07:01Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。