論文の概要: Towards Fair Graph Representation Learning in Social Networks
- arxiv url: http://arxiv.org/abs/2410.11493v1
- Date: Tue, 15 Oct 2024 10:57:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:03:03.568020
- Title: Towards Fair Graph Representation Learning in Social Networks
- Title(参考訳): ソーシャル・ネットワークにおける公正なグラフ表現学習に向けて
- Authors: Guixian Zhang, Guan Yuan, Debo Cheng, Lin Liu, Jiuyong Li, Shichao Zhang,
- Abstract要約: 本稿では, 十分性, 自立性, 分離性という3つの原則に基づいて, 公正表現学習の制約を導入する。
EAGNN法がグループフェアネスを効果的に達成できることを理論的に実証する。
- 参考スコア(独自算出の注目度): 20.823461673845756
- License:
- Abstract: With the widespread use of Graph Neural Networks (GNNs) for representation learning from network data, the fairness of GNN models has raised great attention lately. Fair GNNs aim to ensure that node representations can be accurately classified, but not easily associated with a specific group. Existing advanced approaches essentially enhance the generalisation of node representation in combination with data augmentation strategy, and do not directly impose constraints on the fairness of GNNs. In this work, we identify that a fundamental reason for the unfairness of GNNs in social network learning is the phenomenon of social homophily, i.e., users in the same group are more inclined to congregate. The message-passing mechanism of GNNs can cause users in the same group to have similar representations due to social homophily, leading model predictions to establish spurious correlations with sensitive attributes. Inspired by this reason, we propose a method called Equity-Aware GNN (EAGNN) towards fair graph representation learning. Specifically, to ensure that model predictions are independent of sensitive attributes while maintaining prediction performance, we introduce constraints for fair representation learning based on three principles: sufficiency, independence, and separation. We theoretically demonstrate that our EAGNN method can effectively achieve group fairness. Extensive experiments on three datasets with varying levels of social homophily illustrate that our EAGNN method achieves the state-of-the-art performance across two fairness metrics and offers competitive effectiveness.
- Abstract(参考訳): ネットワークデータからの表現学習にグラフニューラルネットワーク(GNN)が広く使用されていることから,近年,GNNモデルの公平性に大きな注目を集めている。
公正なGNNは、ノード表現が正確に分類できるが、特定のグループに容易に関連付けられないことを保証することを目的としている。
既存の高度なアプローチは、データ拡張戦略と組み合わせてノード表現の一般化を強化し、GNNの公正性に直接制約を課さない。
本研究では,ソーシャルネットワーク学習におけるGNNの不公平性の根本的な理由として,同グループの利用者がより団結する傾向にあることを明らかにする。
GNNのメッセージパッシング機構は、同じグループのユーザが、社会的ホモフィリによる類似した表現を持つことを招き、モデル予測がセンシティブな属性と突発的な相関を確立する。
そこで我々はEquity-Aware GNN (EAGNN) という手法を提案する。
具体的には、予測性能を維持しながら、モデル予測がセンシティブな属性とは無関係であることを保証するため、3つの原則(充足性、独立性、分離性)に基づいた公正表現学習のための制約を導入する。
EAGNN法がグループフェアネスを効果的に達成できることを理論的に実証する。
社会的ホモフィリーのレベルが異なる3つのデータセットに対する大規模な実験は、我々のERGNN法が2つのフェアネス指標で最先端のパフォーマンスを達成し、競争力のある効果をもたらすことを示している。
関連論文リスト
- ComFairGNN: Community Fair Graph Neural Network [6.946292440025013]
グラフニューラルネットワーク(GNN)におけるコミュニティレベルのバイアスを軽減するための新しいフレームワークを提案する。
提案手法では,GNNにおける局所分布の多様さから生じるバイアスに対処する,学習可能なコアセットに基づくデバイアス機能を用いる。
論文 参考訳(メタデータ) (2024-11-07T02:04:34Z) - PROXI: Challenging the GNNs for Link Prediction [3.8233569758620063]
本稿では,グラフと属性空間の両方におけるノードペアの近接情報を活用するPROXIを紹介する。
標準機械学習(ML)モデルは競争力があり、最先端のGNNモデルよりも優れています。
ProXIによる従来のGNNの拡張はリンク予測性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:38Z) - Rethinking Fair Graph Neural Networks from Re-balancing [26.70771023446706]
単純な再分散手法は、既存の公正なGNN手法と容易に一致するか、追い越すことができる。
本稿では,グループバランスによるGNNの不公平さを軽減するために,再バランシングによるFairGB,Fair Graph Neural Networkを提案する。
論文 参考訳(メタデータ) (2024-07-16T11:39:27Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - GFairHint: Improving Individual Fairness for Graph Neural Networks via
Fairness Hint [15.828830496326885]
グラフニューラルネットワーク(GNN)のアルゴリズムフェアネスは注目されている。
本稿では,GNNにおける個々人の公平性を促進する新しい手法GFairHintを提案する。
GFairHintは、データセットとさまざまなバックボーンモデルの組み合わせで、最も公正な結果を達成する。
論文 参考訳(メタデータ) (2023-05-25T00:03:22Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - FairNorm: Fair and Fast Graph Neural Network Training [9.492903649862761]
グラフニューラルネットワーク(GNN)は、多くのグラフベースの学習タスクの最先端を実現するために実証されている。
GNNは、訓練データ内のバイアスを継承し、さらに増幅し、特定のセンシティブなグループに対して不公平な結果をもたらす可能性があることが示されている。
この研究は、GNNベースの学習におけるバイアスを低減する統一正規化フレームワークであるFairNormを提案する。
論文 参考訳(メタデータ) (2022-05-20T06:10:27Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。