論文の概要: FairSIN: Achieving Fairness in Graph Neural Networks through Sensitive Information Neutralization
- arxiv url: http://arxiv.org/abs/2403.12474v1
- Date: Tue, 19 Mar 2024 06:22:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 15:12:20.549050
- Title: FairSIN: Achieving Fairness in Graph Neural Networks through Sensitive Information Neutralization
- Title(参考訳): FairSIN: 知覚情報中立化によるグラフニューラルネットワークの公平性の実現
- Authors: Cheng Yang, Jixi Liu, Yunhe Yan, Chuan Shi,
- Abstract要約: フィルタリングベースの戦略は、いくつかの非感度な特徴情報をフィルタリングする可能性もあり、予測性能と公平性の間の準最適トレードオフにつながると我々は主張する。
メッセージパッシング前のノード機能や表現に、F3(Fairness-facilitating Features)を追加して組み込むという、革新的な中立化に基づくパラダイムを紹介します。
提案手法をFairSINと命名し,データ中心とモデル中心の両方の観点から,実装のバリエーションを3つ提示する。
- 参考スコア(独自算出の注目度): 40.78945336901361
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the remarkable success of graph neural networks (GNNs) in modeling graph-structured data, like other machine learning models, GNNs are also susceptible to making biased predictions based on sensitive attributes, such as race and gender. For fairness consideration, recent state-of-the-art (SOTA) methods propose to filter out sensitive information from inputs or representations, e.g., edge dropping or feature masking. However, we argue that such filtering-based strategies may also filter out some non-sensitive feature information, leading to a sub-optimal trade-off between predictive performance and fairness. To address this issue, we unveil an innovative neutralization-based paradigm, where additional Fairness-facilitating Features (F3) are incorporated into node features or representations before message passing. The F3 are expected to statistically neutralize the sensitive bias in node representations and provide additional nonsensitive information. We also provide theoretical explanations for our rationale, concluding that F3 can be realized by emphasizing the features of each node's heterogeneous neighbors (neighbors with different sensitive attributes). We name our method as FairSIN, and present three implementation variants from both data-centric and model-centric perspectives. Experimental results on five benchmark datasets with three different GNN backbones show that FairSIN significantly improves fairness metrics while maintaining high prediction accuracies.
- Abstract(参考訳): 他の機械学習モデルと同様に、グラフ構造化データのモデリングにおいてグラフニューラルネットワーク(GNN)が顕著に成功しているにもかかわらず、GNNは人種や性別などのセンシティブな属性に基づいてバイアス付き予測を行うことができる。
公平性を考慮した最近のSOTA(State-of-the-art)手法では,入力や表現,例えばエッジドロップや特徴マスキングからセンシティブな情報をフィルタリングする手法が提案されている。
しかし、このようなフィルタリングベースの戦略は、いくつかの非感度な特徴情報をフィルタリングする可能性もあり、予測性能と公平性の間の準最適トレードオフにつながる。
この問題に対処するため、我々は、メッセージパッシング前のノード機能や表現にF3(Fairness-facilitating Features)を追加する、革新的な中和ベースのパラダイムを公表した。
F3はノード表現の感度バイアスを統計的に中和し、追加の非感度情報を提供すると期待されている。
また、F3は各ノードの異質な隣人(異なる感度特性を持つ隣人)の特徴を強調することで実現可能であると結論付ける。
提案手法をFairSINと命名し,データ中心とモデル中心の両方の観点から,実装のバリエーションを3つ提示する。
3つの異なるGNNバックボーンを持つ5つのベンチマークデータセットの実験結果から、FairSINは高い予測精度を維持しながら、フェアネスの指標を大幅に改善することが示された。
関連論文リスト
- Noise-Resilient Unsupervised Graph Representation Learning via Multi-Hop Feature Quality Estimation [53.91958614666386]
グラフニューラルネットワーク(GNN)に基づく教師なしグラフ表現学習(UGRL)
マルチホップ特徴量推定(MQE)に基づく新しいUGRL法を提案する。
論文 参考訳(メタデータ) (2024-07-29T12:24:28Z) - Fair Graph Neural Network with Supervised Contrastive Regularization [12.666235467177131]
公平性を考慮したグラフニューラルネットワーク(GNN)の学習モデルを提案する。
提案手法は, コントラスト損失と環境損失を統合し, 精度と公正性を両立させる。
論文 参考訳(メタデータ) (2024-04-09T07:49:05Z) - Endowing Pre-trained Graph Models with Provable Fairness [49.8431177748876]
証明可能な公正性を持つ事前学習グラフモデル(GraphPAR)を実現する新しいアダプタチューニングフレームワークを提案する。
具体的には、各ノードに対して異なる属性意味を持つノード表現を拡張するために、ノード表現に対するセンシティブなセマンティックオーグメンタを設計する。
GraphPARでは、各ノードの公平性が証明可能であるかどうか、すなわち、予測が特定の機密属性セマンティクスの範囲内で常に公平であるかどうかを定量化する。
論文 参考訳(メタデータ) (2024-02-19T14:16:08Z) - FairSample: Training Fair and Accurate Graph Convolutional Neural
Networks Efficiently [29.457338893912656]
センシティブなグループに対する社会的バイアスは多くの実世界のグラフに存在するかもしれない。
本稿では,グラフ構造バイアス,ノード属性バイアス,モデルパラメータがGCNの人口動態にどのように影響するかを詳細に分析する。
私たちの洞察は、3種類のバイアスを緩和するフレームワークであるFairSampleにつながります。
論文 参考訳(メタデータ) (2024-01-26T08:17:12Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - Improving Fairness in Graph Neural Networks via Mitigating Sensitive
Attribute Leakage [35.810534649478576]
グラフニューラルネットワーク(GNN)は、グラフ上のノード表現を学習する際の大きな力を示している。
GNNは、トレーニングデータから歴史的偏見を継承し、予測における差別的偏見をもたらす可能性がある。
本研究ではFairVGNN(Fair View Graph Neural Network)を提案する。
論文 参考訳(メタデータ) (2022-06-07T16:25:20Z) - Fairness via Representation Neutralization [60.90373932844308]
フェアネスのための表現中立化(Representation Neutralization for Fairness, RNF)という新たな緩和手法を提案する。
RNFは、DNNモデルのタスク固有の分類ヘッダのみをデバイアスすることで、その公平性を達成する。
複数のベンチマークデータセットに対する実験結果は、DNNモデルの識別を効果的に削減するRNFフレームワークを実証している。
論文 参考訳(メタデータ) (2021-06-23T22:26:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。