論文の概要: Migrate Demographic Group For Fair GNNs
- arxiv url: http://arxiv.org/abs/2306.04212v1
- Date: Wed, 7 Jun 2023 07:37:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 15:49:26.034228
- Title: Migrate Demographic Group For Fair GNNs
- Title(参考訳): 公正なGNNのためのMigrate Demographic Group
- Authors: YanMing Hu, TianChi Liao, JiaLong Chen, Chuan Chen, Jing Bian, and
ZiBin Zheng
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフ学習の性能が優れているため,多くのシナリオに適用されている。
FairMigrationは2つのトレーニングステージで構成されている。最初の段階では、GNNはパーソナライズされた自己教師型学習によって最初に最適化される。
第2段階では、新しい人口集団は凍結し、新しい人口集団と敵対訓練の制約の下で教師付き学習を行う。
- 参考スコア(独自算出の注目度): 17.636503650254465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural networks (GNNs) have been applied in many scenarios due to the
superior performance of graph learning. However, fairness is always ignored
when designing GNNs. As a consequence, biased information in training data can
easily affect vanilla GNNs, causing biased results toward particular
demographic groups (divided by sensitive attributes, such as race and age).
There have been efforts to address the fairness issue. However, existing fair
techniques generally divide the demographic groups by raw sensitive attributes
and assume that are fixed. The biased information correlated with raw sensitive
attributes will run through the training process regardless of the implemented
fair techniques. It is urgent to resolve this problem for training fair GNNs.
To tackle this problem, we propose a brand new framework, FairMigration, which
can dynamically migrate the demographic groups instead of keeping that fixed
with raw sensitive attributes. FairMigration is composed of two training
stages. In the first stage, the GNNs are initially optimized by personalized
self-supervised learning, and the demographic groups are adjusted dynamically.
In the second stage, the new demographic groups are frozen and supervised
learning is carried out under the constraints of new demographic groups and
adversarial training. Extensive experiments reveal that FairMigration balances
model performance and fairness well.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,グラフ学習の性能が優れているため,多くのシナリオに適用されている。
しかし、GNNを設計する際には常に公平さは無視される。
その結果、トレーニングデータのバイアスされた情報は、バニラGNNに容易に影響し、特定の人口層グループ(人種や年齢などのセンシティブな属性によって分割される)にバイアスのある結果をもたらす。
その公平な問題に対処する努力があった。
しかし、既存の公正な手法は一般に人口層を生の繊細な属性で分類し、固定していると仮定する。
生の繊細な属性と相関するバイアスのある情報は、実装された公正なテクニックに関係なく、トレーニングプロセスを通じて実行される。
公正なGNNの育成には,この問題の解決が急務である。
この問題に対処するために,我々は,生の敏感な属性で固定する代わりに,人口動態グループを動的に移行できる新しいフレームワーク,fairmigrationを提案する。
FairMigrationは2つのトレーニングステージで構成されている。
最初の段階では、GNNはパーソナライズされた自己教師付き学習によって最適化され、階層群は動的に調整される。
第2段階では,新しい集団群は凍結され,新しい集団群と敵対的訓練の制約の下で教師付き学習が行われる。
大規模な実験により、FairMigrationはモデル性能とフェアネスのバランスが良好であることが明らかとなった。
関連論文リスト
- The Devil is in the Data: Learning Fair Graph Neural Networks via
Partial Knowledge Distillation [35.17007613884196]
グラフニューラルネットワーク(GNN)は、多くのハイテイクタスクでますます利用されている。
GNNは特定の人口集団に対して差別的な決定をする傾向があるため、不公平であることが示されている。
本稿では,知識蒸留,すなわちFairGKDを用いて,公正なGNNを学習するための人口統計学的手法を提案する。
論文 参考訳(メタデータ) (2023-11-29T05:54:58Z) - Equipping Federated Graph Neural Networks with Structure-aware Group Fairness [9.60194163484604]
グラフニューラルネットワーク(GNN)は、様々な種類のグラフデータ処理や分析タスクに広く利用されている。
textF2$GNNはFair Federated Graph Neural Networkであり、フェデレートされたGNNのグループフェアネスを高める。
論文 参考訳(メタデータ) (2023-10-18T21:51:42Z) - Towards Fair Graph Neural Networks via Graph Counterfactual [38.721295940809135]
グラフニューラルネットワーク(GNN)は、グラフ上での表現(GNN)学習の優れた能力を示し、さまざまなタスクを容易にしている。
最近の研究によると、GNNはトレーニングデータからのバイアスを継承し、増幅する傾向にあり、高いシナリオでGNNが採用されることが懸念されている。
本研究では,非現実的な反事実を避けるために,非現実的な反事実をトレーニングデータから選択できる新しいフレームワークCAFを提案する。
論文 参考訳(メタデータ) (2023-07-10T23:28:03Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - Mitigating Relational Bias on Knowledge Graphs [51.346018842327865]
マルチホップバイアスを同時に緩和し,知識グラフにおけるエンティティとリレーションの近接情報を保存するフレームワークであるFair-KGNNを提案する。
ジェンダー占有とナショナリティ・サリーバイアスを軽減するために,2つの最先端KGNNモデル(RCCNとCompGCN)を組み込んだFair-KGNNの2例を開発した。
論文 参考訳(メタデータ) (2022-11-26T05:55:34Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - FairNorm: Fair and Fast Graph Neural Network Training [9.492903649862761]
グラフニューラルネットワーク(GNN)は、多くのグラフベースの学習タスクの最先端を実現するために実証されている。
GNNは、訓練データ内のバイアスを継承し、さらに増幅し、特定のセンシティブなグループに対して不公平な結果をもたらす可能性があることが示されている。
この研究は、GNNベースの学習におけるバイアスを低減する統一正規化フレームワークであるFairNormを提案する。
論文 参考訳(メタデータ) (2022-05-20T06:10:27Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。