論文の概要: ComFairGNN: Community Fair Graph Neural Network
- arxiv url: http://arxiv.org/abs/2411.04371v1
- Date: Thu, 07 Nov 2024 02:04:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:39:54.330093
- Title: ComFairGNN: Community Fair Graph Neural Network
- Title(参考訳): ComFairGNN: コミュニティフェアグラフニューラルネットワーク
- Authors: Yonas Sium, Qi Li,
- Abstract要約: グラフニューラルネットワーク(GNN)におけるコミュニティレベルのバイアスを軽減するための新しいフレームワークを提案する。
提案手法では,GNNにおける局所分布の多様さから生じるバイアスに対処する,学習可能なコアセットに基づくデバイアス機能を用いる。
- 参考スコア(独自算出の注目度): 6.946292440025013
- License:
- Abstract: Graph Neural Networks (GNNs) have become the leading approach for addressing graph analytical problems in various real-world scenarios. However, GNNs may produce biased predictions against certain demographic subgroups due to node attributes and neighbors surrounding a node. Most current research on GNN fairness focuses predominantly on debiasing GNNs using oversimplified fairness evaluation metrics, which can give a misleading impression of fairness. Understanding the potential evaluation paradoxes due to the complicated nature of the graph structure is crucial for developing effective GNN debiasing mechanisms. In this paper, we examine the effectiveness of current GNN debiasing methods in terms of unfairness evaluation. Specifically, we introduce a community-level strategy to measure bias in GNNs and evaluate debiasing methods at this level. Further, We introduce ComFairGNN, a novel framework designed to mitigate community-level bias in GNNs. Our approach employs a learnable coreset-based debiasing function that addresses bias arising from diverse local neighborhood distributions during GNNs neighborhood aggregation. Comprehensive evaluations on three benchmark datasets demonstrate our model's effectiveness in both accuracy and fairness metrics.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,さまざまな現実シナリオにおいて,グラフ解析問題に対処するための主要なアプローチとなっている。
しかしながら、GNNは、ノード属性とノードを取り巻く隣人によって、特定の階層的なサブグループに対してバイアス付き予測を生成する可能性がある。
GNNフェアネスに関する現在のほとんどの研究は、過度に単純化されたフェアネス評価指標を使用してGNNを嫌悪することに集中しており、フェアネスの誤解を招く可能性がある。
グラフ構造の複雑な性質による潜在的な評価パラドックスを理解することは、効果的なGNN脱バイアス機構の開発に不可欠である。
本稿では,現行のGNN脱バイアス法の有効性について,不公平性評価の観点から検討する。
具体的には,GNNの偏りを測定するためのコミュニティレベルの戦略を導入し,このレベルでの偏りの評価を行う。
さらに,コミュニティレベルの偏見を緩和する新しいフレームワークであるComFairGNNを紹介する。
提案手法では,GNNにおける局所分布の多様さから生じるバイアスに対処する,学習可能なコアセットに基づくデバイアス機能を用いる。
3つのベンチマークデータセットの総合的な評価は、精度と公正度の両方において、我々のモデルの有効性を示す。
関連論文リスト
- Towards Fair Graph Representation Learning in Social Networks [20.823461673845756]
本稿では, 十分性, 自立性, 分離性という3つの原則に基づいて, 公正表現学習の制約を導入する。
EAGNN法がグループフェアネスを効果的に達成できることを理論的に実証する。
論文 参考訳(メタデータ) (2024-10-15T10:57:02Z) - Online GNN Evaluation Under Test-time Graph Distribution Shifts [92.4376834462224]
オンラインGNN評価という新たな研究課題は、よく訓練されたGNNが現実世界の未ラベルグラフに一般化する能力について、貴重な洞察を提供することを目的としている。
我々は、よく訓練されたGNNモデルのテスト時間一般化誤差を推定するために、LeBeDと呼ばれる効果的な学習行動不一致スコアを開発する。
論文 参考訳(メタデータ) (2024-03-15T01:28:08Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Equipping Federated Graph Neural Networks with Structure-aware Group Fairness [9.60194163484604]
グラフニューラルネットワーク(GNN)は、様々な種類のグラフデータ処理や分析タスクに広く利用されている。
textF2$GNNはFair Federated Graph Neural Networkであり、フェデレートされたGNNのグループフェアネスを高める。
論文 参考訳(メタデータ) (2023-10-18T21:51:42Z) - Interpreting Unfairness in Graph Neural Networks via Training Node
Attribution [46.384034587689136]
本稿では,GNNの不公平さを学習ノードの影響によって解釈する新たな問題について検討する。
具体的には,GNNに現れるバイアスを測定するために,確率分布分散(PDD)という新しい手法を提案する。
PDDの有効性と実世界のデータセットを用いた実験による影響評価の有効性を検証する。
論文 参考訳(メタデータ) (2022-11-25T21:52:30Z) - On Structural Explanation of Bias in Graph Neural Networks [40.323880315453906]
グラフニューラルネットワーク (GNN) は, 様々なグラフ解析問題において, 満足度の高い性能を示す。
GNNは特定の人口集団に対して偏見のある結果をもたらす可能性がある。
本稿では,GNNにおけるバイアスの構造的説明に関する新しい研究課題について検討する。
論文 参考訳(メタデータ) (2022-06-24T06:49:21Z) - EDITS: Modeling and Mitigating Data Bias for Graph Neural Networks [29.974829042502375]
本研究では,属性ネットワークのバイアスを軽減するためのフレームワーク EDITS を開発した。
EDITSはモデルに依存しない方法で動作し、ダウンストリームタスクに適用される特定のGNNとは独立している。
論文 参考訳(メタデータ) (2021-08-11T14:07:01Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。