論文の概要: On Structural Explanation of Bias in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2206.12104v1
- Date: Fri, 24 Jun 2022 06:49:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 14:20:51.993192
- Title: On Structural Explanation of Bias in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるバイアスの構造記述について
- Authors: Yushun Dong, Song Wang, Yu Wang, Tyler Derr, Jundong Li
- Abstract要約: グラフニューラルネットワーク (GNN) は, 様々なグラフ解析問題において, 満足度の高い性能を示す。
GNNは特定の人口集団に対して偏見のある結果をもたらす可能性がある。
本稿では,GNNにおけるバイアスの構造的説明に関する新しい研究課題について検討する。
- 参考スコア(独自算出の注目度): 40.323880315453906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have shown satisfying performance in various
graph analytical problems. Hence, they have become the \emph{de facto} solution
in a variety of decision-making scenarios. However, GNNs could yield biased
results against certain demographic subgroups. Some recent works have
empirically shown that the biased structure of the input network is a
significant source of bias for GNNs. Nevertheless, no studies have
systematically scrutinized which part of the input network structure leads to
biased predictions for any given node. The low transparency on how the
structure of the input network influences the bias in GNN outcome largely
limits the safe adoption of GNNs in various decision-critical scenarios. In
this paper, we study a novel research problem of structural explanation of bias
in GNNs. Specifically, we propose a novel post-hoc explanation framework to
identify two edge sets that can maximally account for the exhibited bias and
maximally contribute to the fairness level of the GNN prediction for any given
node, respectively. Such explanations not only provide a comprehensive
understanding of bias/fairness of GNN predictions but also have practical
significance in building an effective yet fair GNN model. Extensive experiments
on real-world datasets validate the effectiveness of the proposed framework
towards delivering effective structural explanations for the bias of GNNs.
Open-source code can be found at https://github.com/yushundong/REFEREE.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,様々なグラフ解析問題において,満足度の高い性能を示す。
したがって、様々な意思決定シナリオにおける \emph{de facto} ソリューションとなっている。
しかし、GNNは特定の人口集団に対して偏りのある結果をもたらす可能性がある。
いくつかの最近の研究は、入力ネットワークのバイアス構造がGNNにとって重要なバイアス源であることを実証的に示している。
それでも、入力ネットワーク構造のどの部分が任意のノードに対してバイアス予測をもたらすかを体系的に精査する研究は行われていない。
入力ネットワークの構造がGNN結果のバイアスにどのように影響するかに関する低い透明性は、さまざまな決定クリティカルなシナリオにおけるGNNの安全な採用を著しく制限する。
本稿では,GNNにおけるバイアスの構造的説明に関する新しい研究課題について述べる。
具体的には、各ノードに対するGNN予測の公平度を最大化して最大化することができる2つのエッジセットを同定する、新しいポストホックな説明フレームワークを提案する。
このような説明は、GNN予測のバイアス/フェアネスを包括的に理解するだけでなく、効果的で公平なGNNモデルを構築する上でも実践的な重要性を持つ。
実世界のデータセットに関する大規模な実験は、GNNのバイアスに対する効果的な構造的説明を提供するためのフレームワークの有効性を検証する。
オープンソースコードはhttps://github.com/yushundong/REFEREEで見ることができる。
関連論文リスト
- ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Interpreting Unfairness in Graph Neural Networks via Training Node
Attribution [46.384034587689136]
本稿では,GNNの不公平さを学習ノードの影響によって解釈する新たな問題について検討する。
具体的には,GNNに現れるバイアスを測定するために,確率分布分散(PDD)という新しい手法を提案する。
PDDの有効性と実世界のデータセットを用いた実験による影響評価の有効性を検証する。
論文 参考訳(メタデータ) (2022-11-25T21:52:30Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Debiased Graph Neural Networks with Agnostic Label Selection Bias [59.61301255860836]
既存のグラフニューラルネットワーク(GNN)のほとんどは、データの選択バイアスを考慮せずに提案されている。
本稿では,デコリレーションレギュレータを区別した新しいデバイアスドグラフニューラルネットワーク(DGNN)を提案する。
DGNNは既存のGNNを強化するフレキシブルなフレームワークである。
論文 参考訳(メタデータ) (2022-01-19T16:50:29Z) - ProtGNN: Towards Self-Explaining Graph Neural Networks [12.789013658551454]
本稿では,プロトタイプ学習とGNNを組み合わせたプロトタイプグラフニューラルネットワーク(ProtGNN)を提案する。
ProtGNNとProtGNN+は、非解釈不能のものと同等の精度を保ちながら、本質的に解釈可能である。
論文 参考訳(メタデータ) (2021-12-02T01:16:29Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - EDITS: Modeling and Mitigating Data Bias for Graph Neural Networks [29.974829042502375]
本研究では,属性ネットワークのバイアスを軽減するためのフレームワーク EDITS を開発した。
EDITSはモデルに依存しない方法で動作し、ダウンストリームタスクに適用される特定のGNNとは独立している。
論文 参考訳(メタデータ) (2021-08-11T14:07:01Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。