論文の概要: Rethinking Fair Graph Neural Networks from Re-balancing
- arxiv url: http://arxiv.org/abs/2407.11624v1
- Date: Tue, 16 Jul 2024 11:39:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 15:23:07.403229
- Title: Rethinking Fair Graph Neural Networks from Re-balancing
- Title(参考訳): 公正なグラフニューラルネットワークの再バランス
- Authors: Zhixun Li, Yushun Dong, Qiang Liu, Jeffrey Xu Yu,
- Abstract要約: 単純な再分散手法は、既存の公正なGNN手法と容易に一致するか、追い越すことができる。
本稿では,グループバランスによるGNNの不公平さを軽減するために,再バランシングによるFairGB,Fair Graph Neural Networkを提案する。
- 参考スコア(独自算出の注目度): 26.70771023446706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driven by the powerful representation ability of Graph Neural Networks (GNNs), plentiful GNN models have been widely deployed in many real-world applications. Nevertheless, due to distribution disparities between different demographic groups, fairness in high-stake decision-making systems is receiving increasing attention. Although lots of recent works devoted to improving the fairness of GNNs and achieved considerable success, they all require significant architectural changes or additional loss functions requiring more hyper-parameter tuning. Surprisingly, we find that simple re-balancing methods can easily match or surpass existing fair GNN methods. We claim that the imbalance across different demographic groups is a significant source of unfairness, resulting in imbalanced contributions from each group to the parameters updating. However, these simple re-balancing methods have their own shortcomings during training. In this paper, we propose FairGB, Fair Graph Neural Network via re-Balancing, which mitigates the unfairness of GNNs by group balancing. Technically, FairGB consists of two modules: counterfactual node mixup and contribution alignment loss. Firstly, we select counterfactual pairs across inter-domain and inter-class, and interpolate the ego-networks to generate new samples. Guided by analysis, we can reveal the debiasing mechanism of our model by the causal view and prove that our strategy can make sensitive attributes statistically independent from target labels. Secondly, we reweigh the contribution of each group according to gradients. By combining these two modules, they can mutually promote each other. Experimental results on benchmark datasets show that our method can achieve state-of-the-art results concerning both utility and fairness metrics. Code is available at https://github.com/ZhixunLEE/FairGB.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の強力な表現能力によって駆動される、豊富なGNNモデルは、多くの現実世界のアプリケーションに広くデプロイされている。
それにもかかわらず、異なる人口集団間の分布格差により、ハイテイクな意思決定システムにおける公正さが注目されている。
GNNの公正性を向上し、大きな成功を収めるために、近年の多くの研究が続けられているが、それらはすべて、大きなアーキテクチャ変更や、より過度なパラメータチューニングを必要とする追加の損失関数を必要としている。
驚いたことに、単純な再分散手法は、既存の公正なGNN手法と簡単に一致したり、超えたりすることができる。
我々は、異なる人口集団間の不均衡が重要な不公平の原因であり、その結果、各グループからパラメータの更新に対する不均衡な貢献をもたらすと主張している。
しかし、これらの単純な再バランス手法には、トレーニング中に独自の欠点がある。
本稿では,グループバランスによるGNNの不公平さを軽減するために,再バランシングによるFairGB,Fair Graph Neural Networkを提案する。
技術的には、FairGBは2つのモジュールで構成されている。
まず、ドメイン間とクラス間の対物対を選択し、ego-networksを補間して新しいサンプルを生成する。
分析によって、因果的視点でモデルの偏りのメカニズムを明らかにすることができ、我々の戦略がターゲットラベルから統計的に独立していることを示すことができる。
第2に、勾配に応じて各群の貢献を再考する。
これら2つのモジュールを組み合わせることで、相互に促進することができる。
ベンチマークによる実験結果から,本手法は有効性と公平性の両方に関して,最先端の結果が得られることが示された。
コードはhttps://github.com/ZhixunLEE/FairGBで入手できる。
関連論文リスト
- Towards Fair Graph Representation Learning in Social Networks [20.823461673845756]
本稿では, 十分性, 自立性, 分離性という3つの原則に基づいて, 公正表現学習の制約を導入する。
EAGNN法がグループフェアネスを効果的に達成できることを理論的に実証する。
論文 参考訳(メタデータ) (2024-10-15T10:57:02Z) - Disentangling, Amplifying, and Debiasing: Learning Disentangled Representations for Fair Graph Neural Networks [22.5976413484192]
本稿では,新しいGNNフレームワークであるDAB-GNNを提案する。
Dab-GNNは、正確性と公正性の最適バランスを達成するという点で、最先端の10のライバルを著しく上回っている。
論文 参考訳(メタデータ) (2024-08-23T07:14:56Z) - FairSample: Training Fair and Accurate Graph Convolutional Neural
Networks Efficiently [29.457338893912656]
センシティブなグループに対する社会的バイアスは多くの実世界のグラフに存在するかもしれない。
本稿では,グラフ構造バイアス,ノード属性バイアス,モデルパラメータがGCNの人口動態にどのように影響するかを詳細に分析する。
私たちの洞察は、3種類のバイアスを緩和するフレームワークであるFairSampleにつながります。
論文 参考訳(メタデータ) (2024-01-26T08:17:12Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Equipping Federated Graph Neural Networks with Structure-aware Group Fairness [9.60194163484604]
グラフニューラルネットワーク(GNN)は、様々な種類のグラフデータ処理や分析タスクに広く利用されている。
textF2$GNNはFair Federated Graph Neural Networkであり、フェデレートされたGNNのグループフェアネスを高める。
論文 参考訳(メタデータ) (2023-10-18T21:51:42Z) - Fairness-aware Message Passing for Graph Neural Networks [35.36630284275523]
本稿では,新しいフェアネス対応メッセージパッシングフレームワークGMMDを提案する。
GMMDは直感的には、異なるセンシティブなグループから他のノードの表現を集約するようノードに促すことと解釈できる。
提案するフレームワークは,高い精度を維持しつつ,様々なバックボーンGNNモデルの公平性を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-19T19:31:35Z) - Graph Ladling: Shockingly Simple Parallel GNN Training without
Intermediate Communication [100.51884192970499]
GNNは、グラフを学習するニューラルネットワークの強力なファミリーである。
GNNのスケーリングは、肥大化または拡大によって、不健康な勾配、過度なスムースメント、情報のスカッシングといった問題に悩まされる。
本稿では,現在のGNNの深層化や拡張ではなく,GNNに適したモデルスープをデータ中心の視点で表現することを提案する。
論文 参考訳(メタデータ) (2023-06-18T03:33:46Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - GNNRank: Learning Global Rankings from Pairwise Comparisons via Directed
Graph Neural Networks [68.61934077627085]
本稿では,グラフ埋め込みを学習可能なGNNと互換性のあるモデリングフレームワークであるGNNRankを紹介する。
既存の手法と比較して,我々の手法が競争力があり,しばしば優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-02-01T04:19:50Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。