論文の概要: FairGSE: Fairness-Aware Graph Neural Network without High False Positive Rates
- arxiv url: http://arxiv.org/abs/2511.12132v1
- Date: Sat, 15 Nov 2025 09:40:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.62843
- Title: FairGSE: Fairness-Aware Graph Neural Network without High False Positive Rates
- Title(参考訳): FairGSE: 偽陽性率のないフェアネスを意識したグラフニューラルネットワーク
- Authors: Zhenqiang Ye, Jinjie Lu, Tianlong Gu, Fengrui Hao, Xuemin Wang,
- Abstract要約: グラフ表現学習の主流パラダイムとして,グラフニューラルネットワーク(GNN)が登場している。
2次元構造エントロピー (2D-SE) を最大化し, 偽陽性を伴わない公平性を向上するフレームワークである, 構造エントロピー (textbfFairGSE) によるFair GNNを提案する。
いくつかの実世界のデータセットの実験では、FairGSEはFPRを39%削減している。
- 参考スコア(独自算出の注目度): 5.610647458198099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have emerged as the mainstream paradigm for graph representation learning due to their effective message aggregation. However, this advantage also amplifies biases inherent in graph topology, raising fairness concerns. Existing fairness-aware GNNs provide satisfactory performance on fairness metrics such as Statistical Parity and Equal Opportunity while maintaining acceptable accuracy trade-offs. Unfortunately, we observe that this pursuit of fairness metrics neglects the GNN's ability to predict negative labels, which renders their predictions with extremely high False Positive Rates (FPR), resulting in negative effects in high-risk scenarios. To this end, we advocate that classification performance should be carefully calibrated while improving fairness, rather than simply constraining accuracy loss. Furthermore, we propose Fair GNN via Structural Entropy (\textbf{FairGSE}), a novel framework that maximizes two-dimensional structural entropy (2D-SE) to improve fairness without neglecting false positives. Experiments on several real-world datasets show FairGSE reduces FPR by 39\% vs. state-of-the-art fairness-aware GNNs, with comparable fairness improvement.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,その効果的なメッセージ集約によって,グラフ表現学習の主流パラダイムとして登場した。
しかし、この利点はグラフトポロジーに固有のバイアスを増幅し、公平性に関する懸念を提起する。
既存の公正を意識したGNNは、統計的パリティや平等機会などの公正度指標に満足できる性能を提供しながら、許容できる精度のトレードオフを維持している。
残念なことに、この公正度尺度の追求は、非常に高い偽陽性率 (FPR) で予測を行うGNNの負のラベル予測能力を無視し、高いリスクシナリオにおいて負の効果をもたらす。
この目的のために, 精度損失を単純に抑えるのではなく, 公平性を向上しつつ, 分類性能を慎重に調整すべきだと提案する。
さらに,2次元構造エントロピー (2D-SE) を最大化し, 偽陽性を無視することなく公平性を向上させる新しいフレームワークである, 構造エントロピー (\textbf{FairGSE}) によるFair GNNを提案する。
いくつかの実世界のデータセットの実験では、FairGSEは、最先端のフェアネスを意識したGNNに対して、FPRを39倍削減し、同等のフェアネスを改善している。
関連論文リスト
- FairACE: Achieving Degree Fairness in Graph Neural Networks via Contrastive and Adversarial Group-Balanced Training [23.379213814314372]
本稿では,Fairness-Aware Asymmetric Contrastive Ensemble (FairACE)と呼ばれる新しいGNNフレームワークを提案する。
また、異なる次数ベースのノード群間での等価性能を定量的に評価し、保証する新しい公正度尺度である、精度分布ギャップ(ADG)を提案する。
論文 参考訳(メタデータ) (2025-04-12T13:32:11Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Certified Defense on the Fairness of Graph Neural Networks [86.14235652889242]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Fair Graph Machine Learning under Adversarial Missingness Processes [5.206616584683251]
逆方向の欠損プロセスは、計算によって公正なモデルに偽装できることを示す。
感性属性に対する公平なデータ計算モデルであるBFtS(Better Fair than Sorry)を提案する。
論文 参考訳(メタデータ) (2023-11-02T20:57:44Z) - Adversarial Attacks on Fairness of Graph Neural Networks [63.155299388146176]
公正を意識したグラフニューラルネットワーク(GNN)は、どの人口集団でも予測のバイアスを減らすことができるため、注目を集めている。
これらの手法はGNNのアルゴリズム的公正性を大幅に改善するが、慎重に設計された敵攻撃によって容易に公正性を損なうことができる。
論文 参考訳(メタデータ) (2023-10-20T21:19:54Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。