論文の概要: Model-Agnostic Fairness Regularization for GNNs with Incomplete Sensitive Information
- arxiv url: http://arxiv.org/abs/2512.03074v1
- Date: Thu, 27 Nov 2025 15:36:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-04 20:02:54.93816
- Title: Model-Agnostic Fairness Regularization for GNNs with Incomplete Sensitive Information
- Title(参考訳): 不完全感性情報を用いたGNNのモデル非依存フェアネス正規化
- Authors: Mahdi Tavassoli Kejani, Fadi Dornaika, Jean-Michel Loubes,
- Abstract要約: グラフニューラルネットワーク(GNN)は、ノード分類やリンク予測を含む関係学習タスクにおいて、例外的な効果を示した。
GNNは、人種や性別などのセンシティブな属性によって定義された保護されたグループに対して、社会的バイアスを永続し、増幅することができる。
感性属性が部分的にしか利用できない現実的なシナリオのために設計された,新しいモデルに依存しないフェアネス正規化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.900835813533135
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph Neural Networks (GNNs) have demonstrated exceptional efficacy in relational learning tasks, including node classification and link prediction. However, their application raises significant fairness concerns, as GNNs can perpetuate and even amplify societal biases against protected groups defined by sensitive attributes such as race or gender. These biases are often inherent in the node features, structural topology, and message-passing mechanisms of the graph itself. A critical limitation of existing fairness-aware GNN methods is their reliance on the strong assumption that sensitive attributes are fully available for all nodes during training--a condition that poses a practical impediment due to privacy concerns and data collection constraints. To address this gap, we propose a novel, model-agnostic fairness regularization framework designed for the realistic scenario where sensitive attributes are only partially available. Our approach formalizes a fairness-aware objective function that integrates both equal opportunity and statistical parity as differentiable regularization terms. Through a comprehensive empirical evaluation across five real-world benchmark datasets, we demonstrate that the proposed method significantly mitigates bias across key fairness metrics while maintaining competitive node classification performance. Results show that our framework consistently outperforms baseline models in achieving a favorable fairness-accuracy trade-off, with minimal degradation in predictive accuracy. The datasets and source code will be publicly released at https://github.com/mtavassoli/GNN-FC.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノード分類やリンク予測を含む関係学習タスクにおいて、例外的な効果を示した。
しかし、GNNは人種や性別などのセンシティブな属性によって定義された保護されたグループに対して社会的偏見を持続させ、さらに増幅することができるため、その適用は重大な公平性に関する懸念を提起する。
これらのバイアスは、しばしばグラフ自体のノードの特徴、構造的トポロジー、メッセージパッシング機構に固有のものである。
既存の公正を意識したGNN手法の限界は、トレーニング中にすべてのノードでセンシティブな属性が完全に利用できるという強い仮定に依存していることだ。
このギャップに対処するために、感性属性が部分的にしか利用できない現実的なシナリオのために設計された、モデルに依存しない新しいフェアネス正規化フレームワークを提案する。
本手法は, 同一の機会と統計的パリティの両方を微分可能な正規化項として統合する, 公平性を考慮した客観的関数を定式化する。
実世界の5つのベンチマークデータセットの総合的な評価を通じて、提案手法は、競合ノード分類性能を維持しながら、主要な公正度指標間のバイアスを著しく軽減することを示した。
その結果,本フレームワークは,予測精度の低下を最小限に抑えつつ,良好な公正性と精度のトレードオフを達成する上で,ベースラインモデルよりも一貫して優れていた。
データセットとソースコードはhttps://github.com/mtavassoli/GNN-FCで公開される。
関連論文リスト
- Towards Fair Graph Neural Networks via Graph Counterfactual without Sensitive Attributes [4.980930265721185]
本稿では,Fairwosというフレームワークを提案する。
まず, 疑似感性属性を生成する機構を提案し, 疑似感性属性の欠如を解消する。
次に、実際のデータセットからグラフ反事実を見つけるための戦略を設計する。
論文 参考訳(メタデータ) (2024-12-13T08:11:40Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - xAI-Drop: Don't Use What You Cannot Explain [23.33477769275026]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための主要なパラダイムとして登場した。
GNNは、一般化の欠如や解釈可能性の低下といった課題に直面している。
トポロジカルレベル降下正則化器であるxAI-Dropを導入する。
論文 参考訳(メタデータ) (2024-07-29T14:53:45Z) - Enhancing Fairness in Unsupervised Graph Anomaly Detection through Disentanglement [33.565252991113766]
グラフ異常検出(GAD)は、金融詐欺検出から偽ニュース検出まで、さまざまなアプリケーションにおいてますます重要になっている。
現在のGAD法は主に公平性の問題を見落としており、特定の人口集団に対して差別的な決定が下される可能性がある。
DeFENDという属性グラフ上に,DisEntangle-based FairnEss-aware aNomaly Detectionフレームワークを考案した。
実世界のデータセットに対する実証的な評価から、DEFENDはGADにおいて効果的に機能し、最先端のベースラインと比較して公正性を著しく向上することが明らかとなった。
論文 参考訳(メタデータ) (2024-06-03T04:48:45Z) - Conditional Shift-Robust Conformal Prediction for Graph Neural Network [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの結果を予測する強力なツールとして登場した。
有効性にもかかわらず、GNNは堅牢な不確実性推定を提供する能力に制限がある。
本稿では,GNNに対する条件シフトロバスト(CondSR)の共形予測を提案する。
論文 参考訳(メタデータ) (2024-05-20T11:47:31Z) - Uncertainty in Graph Neural Networks: A Survey [47.785948021510535]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Endowing Pre-trained Graph Models with Provable Fairness [49.8431177748876]
証明可能な公正性を持つ事前学習グラフモデル(GraphPAR)を実現する新しいアダプタチューニングフレームワークを提案する。
具体的には、各ノードに対して異なる属性意味を持つノード表現を拡張するために、ノード表現に対するセンシティブなセマンティックオーグメンタを設計する。
GraphPARでは、各ノードの公平性が証明可能であるかどうか、すなわち、予測が特定の機密属性セマンティクスの範囲内で常に公平であるかどうかを定量化する。
論文 参考訳(メタデータ) (2024-02-19T14:16:08Z) - MAPPING: Debiasing Graph Neural Networks for Fair Node Classification with Limited Sensitive Information Leakage [1.5438758943381854]
公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2024-01-23T14:59:46Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - Uncertainty Quantification over Graph with Conformalized Graph Neural
Networks [52.20904874696597]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに基づく強力な機械学習予測モデルである。
GNNには厳密な不確実性見積が欠如しており、エラーのコストが重要な設定での信頼性の高いデプロイメントが制限されている。
本稿では,共形予測(CP)をグラフベースモデルに拡張した共形GNN(CF-GNN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T21:38:23Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。