論文の概要: Improving Fairness in Graph Neural Networks via Counterfactual Debiasing
- arxiv url: http://arxiv.org/abs/2508.14683v1
- Date: Wed, 20 Aug 2025 12:59:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.45681
- Title: Improving Fairness in Graph Neural Networks via Counterfactual Debiasing
- Title(参考訳): フェールファクトデバイアスによるグラフニューラルネットワークの公平性向上
- Authors: Zengyi Wo, Chang Liu, Yumeng Wang, Minglai Shao, Wenjun Wang,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングに成功している。
GNNは、人種や性別などの属性に基づいた予測においてバイアスを示すことができる。
本稿では, バイアス軽減のためのデファクト・デファクト・データ拡張手法を提案する。
- 参考スコア(独自算出の注目度): 4.984092292992338
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have been successful in modeling graph-structured data. However, similar to other machine learning models, GNNs can exhibit bias in predictions based on attributes like race and gender. Moreover, bias in GNNs can be exacerbated by the graph structure and message-passing mechanisms. Recent cutting-edge methods propose mitigating bias by filtering out sensitive information from input or representations, like edge dropping or feature masking. Yet, we argue that such strategies may unintentionally eliminate non-sensitive features, leading to a compromised balance between predictive accuracy and fairness. To tackle this challenge, we present a novel approach utilizing counterfactual data augmentation for bias mitigation. This method involves creating diverse neighborhoods using counterfactuals before message passing, facilitating unbiased node representations learning from the augmented graph. Subsequently, an adversarial discriminator is employed to diminish bias in predictions by conventional GNN classifiers. Our proposed technique, Fair-ICD, ensures the fairness of GNNs under moderate conditions. Experiments on standard datasets using three GNN backbones demonstrate that Fair-ICD notably enhances fairness metrics while preserving high predictive performance.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングに成功している。
しかし、他の機械学習モデルと同様に、GNNは人種や性別などの属性に基づいて予測にバイアスを示せる。
さらに、グラフ構造やメッセージパッシング機構によって、GNNのバイアスが悪化する可能性がある。
近年の最先端手法では,エッジドロップや特徴マスキングなどの入力や表現からセンシティブな情報をフィルタリングすることでバイアスを軽減する手法が提案されている。
しかし、このような戦略は意図せず非感度な特徴を排除し、予測精度と公正性のバランスを損なう可能性があると論じる。
この課題に対処するために, バイアス軽減のための対実データ拡張を利用した新しい手法を提案する。
この方法は、メッセージパッシングの前にカウンターファクトを使って多様な地区を作成することを含み、拡張グラフから学習する非バイアスノード表現を容易にする。
その後、従来のGNN分類器による予測のバイアスを減少させるために、逆微分器を用いる。
提案手法であるFair-ICDは, 適度な条件下でのGNNの公平性を保証する。
3つのGNNバックボーンを用いた標準データセットの実験では、Fair-ICDは高い予測性能を維持しながら、フェアネスメトリクスを顕著に強化している。
関連論文リスト
- Unbiased GNN Learning via Fairness-Aware Subgraph Diffusion [23.615250207134004]
本稿では,非バイアスGNN学習のための新しい生成型ニューラルフェアネス・アウェア・サブグラフ(FASD)手法を提案する。
FASDは,デバイアス付きサブグラフ上で標準GNN学習を行うことにより,入力グラフ上で公正なノード予測を誘導することを示す。
実験により,提案手法は最先端のFair GNNベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-12-31T18:48:30Z) - ComFairGNN: Community Fair Graph Neural Network [6.946292440025013]
グラフニューラルネットワーク(GNN)におけるコミュニティレベルのバイアスを軽減するための新しいフレームワークを提案する。
提案手法では,GNNにおける局所分布の多様さから生じるバイアスに対処する,学習可能なコアセットに基づくデバイアス機能を用いる。
論文 参考訳(メタデータ) (2024-11-07T02:04:34Z) - MAPPING: Debiasing Graph Neural Networks for Fair Node Classification with Limited Sensitive Information Leakage [1.5438758943381854]
公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2024-01-23T14:59:46Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Debiased Graph Neural Networks with Agnostic Label Selection Bias [59.61301255860836]
既存のグラフニューラルネットワーク(GNN)のほとんどは、データの選択バイアスを考慮せずに提案されている。
本稿では,デコリレーションレギュレータを区別した新しいデバイアスドグラフニューラルネットワーク(DGNN)を提案する。
DGNNは既存のGNNを強化するフレキシブルなフレームワークである。
論文 参考訳(メタデータ) (2022-01-19T16:50:29Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。