論文の概要: Graph Fairness Learning under Distribution Shifts
- arxiv url: http://arxiv.org/abs/2401.16784v1
- Date: Tue, 30 Jan 2024 06:51:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 15:56:24.807193
- Title: Graph Fairness Learning under Distribution Shifts
- Title(参考訳): 分布シフトによるグラフフェアネス学習
- Authors: Yibo Li, Xiao Wang, Yujie Xing, Shaohua Fan, Ruijia Wang, Yaoqi Liu,
and Chuan Shi
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データにおいて顕著なパフォーマンスを実現している。
GNNは、トレーニングデータから偏見を継承し、性別や人種などのセンシティブな属性に基づいて差別予測を行うことができる。
本稿では,異なる距離で有意な偏差を持つ多数のグラフを生成するグラフ生成器を提案する。
- 参考スコア(独自算出の注目度): 33.9878682279549
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have achieved remarkable performance on
graph-structured data. However, GNNs may inherit prejudice from the training
data and make discriminatory predictions based on sensitive attributes, such as
gender and race. Recently, there has been an increasing interest in ensuring
fairness on GNNs, but all of them are under the assumption that the training
and testing data are under the same distribution, i.e., training data and
testing data are from the same graph. Will graph fairness performance decrease
under distribution shifts? How does distribution shifts affect graph fairness
learning? All these open questions are largely unexplored from a theoretical
perspective. To answer these questions, we first theoretically identify the
factors that determine bias on a graph. Subsequently, we explore the factors
influencing fairness on testing graphs, with a noteworthy factor being the
representation distances of certain groups between the training and testing
graph. Motivated by our theoretical analysis, we propose our framework
FatraGNN. Specifically, to guarantee fairness performance on unknown testing
graphs, we propose a graph generator to produce numerous graphs with
significant bias and under different distributions. Then we minimize the
representation distances for each certain group between the training graph and
generated graphs. This empowers our model to achieve high classification and
fairness performance even on generated graphs with significant bias, thereby
effectively handling unknown testing graphs. Experiments on real-world and
semi-synthetic datasets demonstrate the effectiveness of our model in terms of
both accuracy and fairness.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データにおいて顕著なパフォーマンスを達成した。
しかし、GNNはトレーニングデータから偏見を継承し、性別や人種などのセンシティブな属性に基づいて差別予測を行う。
近年、GNNの公正性確保への関心が高まっているが、これらはすべて、トレーニングデータとテストデータが同じ分布下にある、すなわち、トレーニングデータとテストデータが同じグラフである、という仮定の下にある。
分布シフトによりグラフの公平性は低下するか?
分布シフトはグラフフェアネス学習にどのように影響するか?
これらのオープンな質問は、理論的な観点からほとんど探索されていない。
これらの質問に答えるために、まずグラフ上のバイアスを決定する要因を理論的に同定する。
次に,テストグラフの公平性に影響を与える要因について検討し,トレーニンググラフとテストグラフの間の特定のグループの表現距離が注目される。
理論解析により,本フレームワークのFatraGNNを提案する。
具体的には,未知のテストグラフ上での公平性を保証するために,多数のグラフを生成するグラフ生成器を提案する。
そして、トレーニンググラフと生成されたグラフの間の各群に対する表現距離を最小化する。
これにより、大きなバイアスを持つ生成されたグラフでも高い分類と公平性を達成し、未知のテストグラフを効果的に処理できるのです。
実世界および半合成データセットの実験は、精度と公平性の両方の観点から、このモデルの有効性を示している。
関連論文リスト
- Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Towards Fair Graph Neural Networks via Graph Counterfactual [38.721295940809135]
グラフニューラルネットワーク(GNN)は、グラフ上での表現(GNN)学習の優れた能力を示し、さまざまなタスクを容易にしている。
最近の研究によると、GNNはトレーニングデータからのバイアスを継承し、増幅する傾向にあり、高いシナリオでGNNが採用されることが懸念されている。
本研究では,非現実的な反事実を避けるために,非現実的な反事実をトレーニングデータから選択できる新しいフレームワークCAFを提案する。
論文 参考訳(メタデータ) (2023-07-10T23:28:03Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Stable Prediction on Graphs with Agnostic Distribution Shift [105.12836224149633]
グラフニューラルネットワーク(GNN)は、ランダムにトレーニングとテストデータを分離した様々なグラフタスクに有効であることが示されている。
しかし、実際のアプリケーションでは、トレーニンググラフの分布はテストグラフとは異なるかもしれない。
本稿では,グラフ上での局所的およびグローバル的に安定な学習と予測を可能にする,GNNのための新しい安定な予測フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-08T02:45:47Z) - Graph Classification by Mixture of Diverse Experts [67.33716357951235]
我々は,不均衡なグラフ分類に多様な専門家の混在を利用したフレームワークであるGraphDIVEを提案する。
GraphDIVEは、分割と並列の原則により、不均衡なグラフデータセットを複数のサブセットに分割するゲーティングネットワークを採用しています。
実世界の不均衡グラフデータセットに関する実験は、GraphDIVEの有効性を示している。
論文 参考訳(メタデータ) (2021-03-29T14:03:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。