論文の概要: Model-Agnostic Fairness Regularization for GNNs with Incomplete Sensitive Information
- arxiv url: http://arxiv.org/abs/2512.03074v1
- Date: Thu, 27 Nov 2025 15:36:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-04 20:02:54.93816
- Title: Model-Agnostic Fairness Regularization for GNNs with Incomplete Sensitive Information
- Title(参考訳): 不完全感性情報を用いたGNNのモデル非依存フェアネス正規化
- Authors: Mahdi Tavassoli Kejani, Fadi Dornaika, Jean-Michel Loubes,
- Abstract要約: グラフニューラルネットワーク(GNN)は、ノード分類やリンク予測を含む関係学習タスクにおいて、例外的な効果を示した。
GNNは、人種や性別などのセンシティブな属性によって定義された保護されたグループに対して、社会的バイアスを永続し、増幅することができる。
感性属性が部分的にしか利用できない現実的なシナリオのために設計された,新しいモデルに依存しないフェアネス正規化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.900835813533135
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph Neural Networks (GNNs) have demonstrated exceptional efficacy in relational learning tasks, including node classification and link prediction. However, their application raises significant fairness concerns, as GNNs can perpetuate and even amplify societal biases against protected groups defined by sensitive attributes such as race or gender. These biases are often inherent in the node features, structural topology, and message-passing mechanisms of the graph itself. A critical limitation of existing fairness-aware GNN methods is their reliance on the strong assumption that sensitive attributes are fully available for all nodes during training--a condition that poses a practical impediment due to privacy concerns and data collection constraints. To address this gap, we propose a novel, model-agnostic fairness regularization framework designed for the realistic scenario where sensitive attributes are only partially available. Our approach formalizes a fairness-aware objective function that integrates both equal opportunity and statistical parity as differentiable regularization terms. Through a comprehensive empirical evaluation across five real-world benchmark datasets, we demonstrate that the proposed method significantly mitigates bias across key fairness metrics while maintaining competitive node classification performance. Results show that our framework consistently outperforms baseline models in achieving a favorable fairness-accuracy trade-off, with minimal degradation in predictive accuracy. The datasets and source code will be publicly released at https://github.com/mtavassoli/GNN-FC.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノード分類やリンク予測を含む関係学習タスクにおいて、例外的な効果を示した。
しかし、GNNは人種や性別などのセンシティブな属性によって定義された保護されたグループに対して社会的偏見を持続させ、さらに増幅することができるため、その適用は重大な公平性に関する懸念を提起する。
これらのバイアスは、しばしばグラフ自体のノードの特徴、構造的トポロジー、メッセージパッシング機構に固有のものである。
既存の公正を意識したGNN手法の限界は、トレーニング中にすべてのノードでセンシティブな属性が完全に利用できるという強い仮定に依存していることだ。
このギャップに対処するために、感性属性が部分的にしか利用できない現実的なシナリオのために設計された、モデルに依存しない新しいフェアネス正規化フレームワークを提案する。
本手法は, 同一の機会と統計的パリティの両方を微分可能な正規化項として統合する, 公平性を考慮した客観的関数を定式化する。
実世界の5つのベンチマークデータセットの総合的な評価を通じて、提案手法は、競合ノード分類性能を維持しながら、主要な公正度指標間のバイアスを著しく軽減することを示した。
その結果,本フレームワークは,予測精度の低下を最小限に抑えつつ,良好な公正性と精度のトレードオフを達成する上で,ベースラインモデルよりも一貫して優れていた。
データセットとソースコードはhttps://github.com/mtavassoli/GNN-FCで公開される。
関連論文リスト
- Towards Fair Graph Neural Networks via Graph Counterfactual without Sensitive Attributes [4.980930265721185]
本稿では,Fairwosというフレームワークを提案する。
まず, 疑似感性属性を生成する機構を提案し, 疑似感性属性の欠如を解消する。
次に、実際のデータセットからグラフ反事実を見つけるための戦略を設計する。
論文 参考訳(メタデータ) (2024-12-13T08:11:40Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Conditional Shift-Robust Conformal Prediction for Graph Neural Network [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの結果を予測する強力なツールとして登場した。
有効性にもかかわらず、GNNは堅牢な不確実性推定を提供する能力に制限がある。
本稿では,GNNに対する条件シフトロバスト(CondSR)の共形予測を提案する。
論文 参考訳(メタデータ) (2024-05-20T11:47:31Z) - Uncertainty in Graph Neural Networks: A Survey [47.785948021510535]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Endowing Pre-trained Graph Models with Provable Fairness [49.8431177748876]
証明可能な公正性を持つ事前学習グラフモデル(GraphPAR)を実現する新しいアダプタチューニングフレームワークを提案する。
具体的には、各ノードに対して異なる属性意味を持つノード表現を拡張するために、ノード表現に対するセンシティブなセマンティックオーグメンタを設計する。
GraphPARでは、各ノードの公平性が証明可能であるかどうか、すなわち、予測が特定の機密属性セマンティクスの範囲内で常に公平であるかどうかを定量化する。
論文 参考訳(メタデータ) (2024-02-19T14:16:08Z) - MAPPING: Debiasing Graph Neural Networks for Fair Node Classification with Limited Sensitive Information Leakage [1.5438758943381854]
公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2024-01-23T14:59:46Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。