論文の概要: Improving Fairness in Graph Neural Networks via Mitigating Sensitive
Attribute Leakage
- arxiv url: http://arxiv.org/abs/2206.03426v2
- Date: Thu, 9 Jun 2022 23:20:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:38:25.583757
- Title: Improving Fairness in Graph Neural Networks via Mitigating Sensitive
Attribute Leakage
- Title(参考訳): 感性属性漏洩の軽減によるグラフニューラルネットワークの公平性向上
- Authors: Yu Wang, Yuying Zhao, Yushun Dong, Huiyuan Chen, Jundong Li, Tyler
Derr
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ上のノード表現を学習する際の大きな力を示している。
GNNは、トレーニングデータから歴史的偏見を継承し、予測における差別的偏見をもたらす可能性がある。
本研究ではFairVGNN(Fair View Graph Neural Network)を提案する。
- 参考スコア(独自算出の注目度): 35.810534649478576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have shown great power in learning node
representations on graphs. However, they may inherit historical prejudices from
training data, leading to discriminatory bias in predictions. Although some
work has developed fair GNNs, most of them directly borrow fair representation
learning techniques from non-graph domains without considering the potential
problem of sensitive attribute leakage caused by feature propagation in GNNs.
However, we empirically observe that feature propagation could vary the
correlation of previously innocuous non-sensitive features to the sensitive
ones. This can be viewed as a leakage of sensitive information which could
further exacerbate discrimination in predictions. Thus, we design two feature
masking strategies according to feature correlations to highlight the
importance of considering feature propagation and correlation variation in
alleviating discrimination. Motivated by our analysis, we propose Fair View
Graph Neural Network (FairVGNN) to generate fair views of features by
automatically identifying and masking sensitive-correlated features considering
correlation variation after feature propagation. Given the learned fair views,
we adaptively clamp weights of the encoder to avoid using sensitive-related
features. Experiments on real-world datasets demonstrate that FairVGNN enjoys a
better trade-off between model utility and fairness. Our code is publicly
available at https://github.com/YuWVandy/FairVGNN.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ上のノード表現を学習する際の大きな力を示している。
しかし、それらはトレーニングデータから歴史的偏見を継承し、予測における差別バイアスをもたらす可能性がある。
公正なGNNを開発した研究もあるが、そのほとんどは、GNNの特徴伝播に起因する機密性漏洩の潜在的な問題を考慮せずに、非グラフ領域から公正な表現学習技術を直接借りている。
しかし,従来の無害な非感性特徴と敏感な特徴との相関は,特徴伝播によって変化する可能性が実証された。
これは、予測における差別をさらに悪化させる可能性のある機密情報の漏洩と見なすことができる。
そこで本稿では,特徴の伝達を考慮した2つの特徴マスキング戦略を設計し,識別の緩和における特徴の伝搬と相関のばらつきを考慮することの重要性を強調した。
本研究では,Fair View Graph Neural Network (FairVGNN) を用いて,特徴伝播後の相関変動を考慮した感度関連特徴の自動識別とマスキングにより特徴の公正なビューを生成する。
学習したフェアビューから、エンコーダの重みを適応的にクランプすることで、センシティブな特徴の使用を避けることができる。
実世界のデータセットの実験は、FairVGNNがモデルユーティリティとフェアネスのトレードオフを良くしていることを示している。
私たちのコードはhttps://github.com/YuWVandy/FairVGNN.comで公開されています。
関連論文リスト
- One Fits All: Learning Fair Graph Neural Networks for Various Sensitive Attributes [40.57757706386367]
不変学習,すなわちFairINVに基づくグラフフェアネスフレームワークを提案する。
FairINVはセンシティブな属性分割を取り入れ、ラベルと各種のセンシティブな属性の間の急激な相関を排除し、公正なGNNを訓練する。
いくつかの実世界のデータセットの実験結果から、FairINVは最先端のフェアネスアプローチを著しく上回っていることが示されている。
論文 参考訳(メタデータ) (2024-06-19T13:30:17Z) - Fair Graph Neural Network with Supervised Contrastive Regularization [12.666235467177131]
公平性を考慮したグラフニューラルネットワーク(GNN)の学習モデルを提案する。
提案手法は, コントラスト損失と環境損失を統合し, 精度と公正性を両立させる。
論文 参考訳(メタデータ) (2024-04-09T07:49:05Z) - FairSIN: Achieving Fairness in Graph Neural Networks through Sensitive Information Neutralization [40.78945336901361]
フィルタリングベースの戦略は、いくつかの非感度な特徴情報をフィルタリングする可能性もあり、予測性能と公平性の間の準最適トレードオフにつながると我々は主張する。
メッセージパッシング前のノード機能や表現に、F3(Fairness-facilitating Features)を追加して組み込むという、革新的な中立化に基づくパラダイムを紹介します。
提案手法をFairSINと命名し,データ中心とモデル中心の両方の観点から,実装のバリエーションを3つ提示する。
論文 参考訳(メタデータ) (2024-03-19T06:22:58Z) - Endowing Pre-trained Graph Models with Provable Fairness [49.8431177748876]
証明可能な公正性を持つ事前学習グラフモデル(GraphPAR)を実現する新しいアダプタチューニングフレームワークを提案する。
具体的には、各ノードに対して異なる属性意味を持つノード表現を拡張するために、ノード表現に対するセンシティブなセマンティックオーグメンタを設計する。
GraphPARでは、各ノードの公平性が証明可能であるかどうか、すなわち、予測が特定の機密属性セマンティクスの範囲内で常に公平であるかどうかを定量化する。
論文 参考訳(メタデータ) (2024-02-19T14:16:08Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Towards Fair Graph Neural Networks via Graph Counterfactual [38.721295940809135]
グラフニューラルネットワーク(GNN)は、グラフ上での表現(GNN)学習の優れた能力を示し、さまざまなタスクを容易にしている。
最近の研究によると、GNNはトレーニングデータからのバイアスを継承し、増幅する傾向にあり、高いシナリオでGNNが採用されることが懸念されている。
本研究では,非現実的な反事実を避けるために,非現実的な反事実をトレーニングデータから選択できる新しいフレームワークCAFを提案する。
論文 参考訳(メタデータ) (2023-07-10T23:28:03Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - Discriminability of Single-Layer Graph Neural Networks [172.5042368548269]
グラフニューラルネットワーク(GNN)は、幅広い問題について有望な性能を示した。
本稿では, 識別可能性の特性に着目し, 安定グラフフィルタバンクへのポイントワイド非線形性の適用により, 高固有値コンテンツに対する識別能力が向上する条件を確立する。
論文 参考訳(メタデータ) (2020-10-17T18:52:34Z) - Say No to the Discrimination: Learning Fair Graph Neural Networks with
Limited Sensitive Attribute Information [37.90997236795843]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて大きな力を示している。
GNNは、皮膚の色や性別など、保護された機密属性に偏った予測を行う。
高いノード分類精度を維持しつつ,GNNのバイアスを取り除くためにFairGNNを提案する。
論文 参考訳(メタデータ) (2020-09-03T05:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。