論文の概要: GFairHint: Improving Individual Fairness for Graph Neural Networks via Fairness Hint
- arxiv url: http://arxiv.org/abs/2305.15622v2
- Date: Mon, 13 Jan 2025 11:17:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:28:53.841419
- Title: GFairHint: Improving Individual Fairness for Graph Neural Networks via Fairness Hint
- Title(参考訳): GFairHint: 公正ヒントによるグラフニューラルネットワークの個々の公正性の改善
- Authors: Paiheng Xu, Yuhang Zhou, Bang An, Wei Ai, Furong Huang,
- Abstract要約: グラフニューラルネットワーク(GNN)のアルゴリズムフェアネスは注目されている。
本稿では,GNNにおける個々人の公平性を促進する新しい手法GFairHintを提案する。
GFairHintは、データセットとさまざまなバックボーンモデルの組み合わせで、最も公正な結果を達成する。
- 参考スコア(独自算出の注目度): 28.70963753478329
- License:
- Abstract: Given the growing concerns about fairness in machine learning and the impressive performance of Graph Neural Networks (GNNs) on graph data learning, algorithmic fairness in GNNs has attracted significant attention. While many existing studies improve fairness at the group level, only a few works promote individual fairness, which renders similar outcomes for similar individuals. A desirable framework that promotes individual fairness should (1) balance between fairness and performance, (2) accommodate two commonly-used individual similarity measures (externally annotated and computed from input features), (3) generalize across various GNN models, and (4) be computationally efficient. Unfortunately, none of the prior work achieves all the desirables. In this work, we propose a novel method, GFairHint, which promotes individual fairness in GNNs and achieves all aforementioned desirables. GFairHint learns fairness representations through an auxiliary link prediction task, and then concatenates the representations with the learned node embeddings in original GNNs as a "fairness hint". Through extensive experimental investigations on five real-world graph datasets under three prevalent GNN models covering both individual similarity measures above, GFairHint achieves the best fairness results in almost all combinations of datasets with various backbone models, while generating comparable utility results, with much less computational cost compared to the previous state-of-the-art (SoTA) method.
- Abstract(参考訳): 機械学習における公正性やグラフデータ学習におけるグラフニューラルネットワーク(GNN)の印象的なパフォーマンスに関する懸念が高まっていることを踏まえると、GNNのアルゴリズム的公正性は大きな注目を集めている。
多くの研究がグループレベルで公正性を改善する一方で、類似した個人に対して同様の結果をもたらす個々の公正性を促進する研究はごくわずかである。
個別の公正性を促進するための望ましいフレームワークは、(1)公正性と性能のバランスをとること、(2)一般的に使われている2つの類似度尺度(外部の注釈付きおよび入力特徴から計算される)を許容すること、(3)様々なGNNモデルにまたがって一般化すること、(4)計算効率を向上することである。
残念なことに、以前の作業では、すべての望ましいことを達成できません。
本稿では, GFairHintという新しい手法を提案する。
GFairHintは補助リンク予測タスクを通じてフェアネス表現を学習し、学習したノードを元のGNNに埋め込み、「フェアネスヒント」として結合する。
GFairHintは、上記の2つの類似度尺度を網羅した3つのGNNモデルに基づく5つの実世界のグラフデータセットに関する広範な実験的研究を通じて、データセットと様々なバックボーンモデルの組み合わせのほぼ全てにおいて、最も公正な結果を達成すると同時に、同等のユーティリティ結果を生成し、従来の最先端(SoTA)手法と比較して計算コストをはるかに少なくする。
関連論文リスト
- Towards Fair Graph Representation Learning in Social Networks [20.823461673845756]
本稿では, 十分性, 自立性, 分離性という3つの原則に基づいて, 公正表現学習の制約を導入する。
EAGNN法がグループフェアネスを効果的に達成できることを理論的に実証する。
論文 参考訳(メタデータ) (2024-10-15T10:57:02Z) - Rethinking Fair Graph Neural Networks from Re-balancing [26.70771023446706]
単純な再分散手法は、既存の公正なGNN手法と容易に一致するか、追い越すことができる。
本稿では,グループバランスによるGNNの不公平さを軽減するために,再バランシングによるFairGB,Fair Graph Neural Networkを提案する。
論文 参考訳(メタデータ) (2024-07-16T11:39:27Z) - GRAPHGINI: Fostering Individual and Group Fairness in Graph Neural
Networks [17.539327573240488]
本稿では,GNNフレームワーク内で用いられる公平性の尺度として,Gini係数を組み込む手法を初めて紹介する。
我々の提案であるGRAPHGINIは、単一システムにおける個人とグループフェアネスの2つの異なる目標に対処する。
論文 参考訳(メタデータ) (2024-02-20T11:38:52Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。