論文の概要: Migrate Demographic Group For Fair GNNs
- arxiv url: http://arxiv.org/abs/2306.04212v2
- Date: Sat, 23 Mar 2024 11:37:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 03:38:04.973463
- Title: Migrate Demographic Group For Fair GNNs
- Title(参考訳): 公正なGNNのためのMigrate Demographic Group
- Authors: YanMing Hu, TianChi Liao, JiaLong Chen, Jing Bian, ZiBin Zheng, Chuan Chen,
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフ学習の性能が優れているため,多くのシナリオに適用されている。
FairMigrationは2つのトレーニングステージで構成されている。最初の段階では、GNNはパーソナライズされた自己教師型学習によって最初に最適化される。
第2段階では、新しい人口集団は凍結し、新しい人口集団と敵対訓練の制約の下で教師付き学習を行う。
- 参考スコア(独自算出の注目度): 23.096452685455134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural networks (GNNs) have been applied in many scenarios due to the superior performance of graph learning. However, fairness is always ignored when designing GNNs. As a consequence, biased information in training data can easily affect vanilla GNNs, causing biased results toward particular demographic groups (divided by sensitive attributes, such as race and age). There have been efforts to address the fairness issue. However, existing fair techniques generally divide the demographic groups by raw sensitive attributes and assume that are fixed. The biased information correlated with raw sensitive attributes will run through the training process regardless of the implemented fair techniques. It is urgent to resolve this problem for training fair GNNs. To tackle this problem, we propose a brand new framework, FairMigration, which can dynamically migrate the demographic groups instead of keeping that fixed with raw sensitive attributes. FairMigration is composed of two training stages. In the first stage, the GNNs are initially optimized by personalized self-supervised learning, and the demographic groups are adjusted dynamically. In the second stage, the new demographic groups are frozen and supervised learning is carried out under the constraints of new demographic groups and adversarial training. Extensive experiments reveal that FairMigration balances model performance and fairness well.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,グラフ学習の性能が優れているため,多くのシナリオに適用されている。
しかし、GNNを設計する際には常に公平さは無視される。
その結果、トレーニングデータのバイアスされた情報は、バニラGNNに容易に影響し、特定の人口層グループ(人種や年齢などのセンシティブな属性によって分割される)にバイアスのある結果をもたらす。
公平性の問題に対処する努力が続けられている。
しかし、既存の公正な手法は、一般に人口集団を生の感度特性で分割し、それを固定していると仮定する。
生のセンシティブな属性に関連付けられたバイアスのある情報は、実装された公正な手法にかかわらず、トレーニングプロセスを通して実行される。
公正なGNNの育成には,この問題の解決が急務である。
この問題に対処するため,我々はFairMigrationという新しいフレームワークを提案する。
FairMigrationは2つのトレーニングステージで構成されている。
最初の段階では、GNNは最初、パーソナライズされた自己教師付き学習によって最適化され、人口統計群は動的に調整される。
第2段階では、新しい人口集団は凍結し、新しい人口集団と敵対訓練の制約の下で教師付き学習を行う。
大規模な実験により、FairMigrationはモデル性能とフェアネスのバランスが良好であることが明らかとなった。
関連論文リスト
- Fairness without Demographics through Learning Graph of Gradients [22.260763111752805]
勾配と群間の相関がグループフェアネスの同定と改善に役立つことを示す。
提案手法はノイズに対して頑健であり,全体の精度を過度に低下させることなく,公平性を著しく向上させることができる。
論文 参考訳(メタデータ) (2024-12-04T20:35:50Z) - The Devil is in the Data: Learning Fair Graph Neural Networks via
Partial Knowledge Distillation [35.17007613884196]
グラフニューラルネットワーク(GNN)は、多くのハイテイクタスクでますます利用されている。
GNNは特定の人口集団に対して差別的な決定をする傾向があるため、不公平であることが示されている。
本稿では,知識蒸留,すなわちFairGKDを用いて,公正なGNNを学習するための人口統計学的手法を提案する。
論文 参考訳(メタデータ) (2023-11-29T05:54:58Z) - Equipping Federated Graph Neural Networks with Structure-aware Group Fairness [9.60194163484604]
グラフニューラルネットワーク(GNN)は、様々な種類のグラフデータ処理や分析タスクに広く利用されている。
textF2$GNNはFair Federated Graph Neural Networkであり、フェデレートされたGNNのグループフェアネスを高める。
論文 参考訳(メタデータ) (2023-10-18T21:51:42Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - Mitigating Relational Bias on Knowledge Graphs [51.346018842327865]
マルチホップバイアスを同時に緩和し,知識グラフにおけるエンティティとリレーションの近接情報を保存するフレームワークであるFair-KGNNを提案する。
ジェンダー占有とナショナリティ・サリーバイアスを軽減するために,2つの最先端KGNNモデル(RCCNとCompGCN)を組み込んだFair-KGNNの2例を開発した。
論文 参考訳(メタデータ) (2022-11-26T05:55:34Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - FairNorm: Fair and Fast Graph Neural Network Training [9.492903649862761]
グラフニューラルネットワーク(GNN)は、多くのグラフベースの学習タスクの最先端を実現するために実証されている。
GNNは、訓練データ内のバイアスを継承し、さらに増幅し、特定のセンシティブなグループに対して不公平な結果をもたらす可能性があることが示されている。
この研究は、GNNベースの学習におけるバイアスを低減する統一正規化フレームワークであるFairNormを提案する。
論文 参考訳(メタデータ) (2022-05-20T06:10:27Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。