論文の概要: Say No to the Discrimination: Learning Fair Graph Neural Networks with
Limited Sensitive Attribute Information
- arxiv url: http://arxiv.org/abs/2009.01454v5
- Date: Fri, 15 Oct 2021 14:05:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 07:53:26.116315
- Title: Say No to the Discrimination: Learning Fair Graph Neural Networks with
Limited Sensitive Attribute Information
- Title(参考訳): 識別にノーと言う:限定的属性情報を用いた公正なグラフニューラルネットワークの学習
- Authors: Enyan Dai, Suhang Wang
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて大きな力を示している。
GNNは、皮膚の色や性別など、保護された機密属性に偏った予測を行う。
高いノード分類精度を維持しつつ,GNNのバイアスを取り除くためにFairGNNを提案する。
- 参考スコア(独自算出の注目度): 37.90997236795843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have shown great power in modeling graph
structured data. However, similar to other machine learning models, GNNs may
make predictions biased on protected sensitive attributes, e.g., skin color and
gender. Because machine learning algorithms including GNNs are trained to
reflect the distribution of the training data which often contains historical
bias towards sensitive attributes. In addition, the discrimination in GNNs can
be magnified by graph structures and the message-passing mechanism. As a
result, the applications of GNNs in sensitive domains such as crime rate
prediction would be largely limited. Though extensive studies of fair
classification have been conducted on i.i.d data, methods to address the
problem of discrimination on non-i.i.d data are rather limited. Furthermore,
the practical scenario of sparse annotations in sensitive attributes is rarely
considered in existing works. Therefore, we study the novel and important
problem of learning fair GNNs with limited sensitive attribute information.
FairGNN is proposed to eliminate the bias of GNNs whilst maintaining high node
classification accuracy by leveraging graph structures and limited sensitive
information. Our theoretical analysis shows that FairGNN can ensure the
fairness of GNNs under mild conditions given limited nodes with known sensitive
attributes. Extensive experiments on real-world datasets also demonstrate the
effectiveness of FairGNN in debiasing and keeping high accuracy.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて大きな力を示している。
しかし、他の機械学習モデルと同様に、GNNは皮膚の色や性別などの保護された機密属性に偏った予測を行う。
gnnを含む機械学習アルゴリズムは、センシティブな属性に対する歴史的バイアスを含むトレーニングデータの分布を反映するように訓練される。
さらに、GNNの識別はグラフ構造とメッセージパッシング機構によって拡大することができる。
結果として、犯罪率予測などのセンシティブな領域におけるGNNの適用は、大きく制限されることになる。
公平な分類に関する広範な研究がi.i.dデータ上で行われているが、非i.dデータ上での差別問題に対処する方法は限られている。
さらに, 感性属性におけるスパースアノテーションの実践シナリオは, 既存の研究ではほとんど考えられない。
そこで本研究では,属性情報に制限のある公正なGNNを学習する上で,新たな重要課題について検討する。
FairGNNは、グラフ構造と限定機密情報を利用して、ノード分類精度を維持しながら、GNNのバイアスを取り除く。
理論的解析により、FairGNNは、既知の感度特性を持つ限られたノードに対して、穏やかな条件下でGNNの公平性を確保することができることが示された。
実世界のデータセットに対する大規模な実験は、FairGNNのデバイアス化と高精度維持における効果も示している。
関連論文リスト
- The Devil is in the Data: Learning Fair Graph Neural Networks via
Partial Knowledge Distillation [35.17007613884196]
グラフニューラルネットワーク(GNN)は、多くのハイテイクタスクでますます利用されている。
GNNは特定の人口集団に対して差別的な決定をする傾向があるため、不公平であることが示されている。
本稿では,知識蒸留,すなわちFairGKDを用いて,公正なGNNを学習するための人口統計学的手法を提案する。
論文 参考訳(メタデータ) (2023-11-29T05:54:58Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Information Flow in Graph Neural Networks: A Clinical Triage Use Case [49.86931948849343]
グラフニューラルネットワーク(GNN)は、マルチモーダルグラフとマルチリレーショナルグラフを処理する能力によって、医療やその他の領域で人気を集めている。
GNNにおける埋め込み情報のフローが知識グラフ(KG)におけるリンクの予測に与える影響について検討する。
以上の結果から,ドメイン知識をGNN接続に組み込むことで,KGと同じ接続を使用する場合や,制約のない埋め込み伝搬を行う場合よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-09-12T09:18:12Z) - Towards Fair Graph Neural Networks via Graph Counterfactual [38.721295940809135]
グラフニューラルネットワーク(GNN)は、グラフ上での表現(GNN)学習の優れた能力を示し、さまざまなタスクを容易にしている。
最近の研究によると、GNNはトレーニングデータからのバイアスを継承し、増幅する傾向にあり、高いシナリオでGNNが採用されることが懸念されている。
本研究では,非現実的な反事実を避けるために,非現実的な反事実をトレーニングデータから選択できる新しいフレームワークCAFを提案する。
論文 参考訳(メタデータ) (2023-07-10T23:28:03Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - Mitigating Relational Bias on Knowledge Graphs [51.346018842327865]
マルチホップバイアスを同時に緩和し,知識グラフにおけるエンティティとリレーションの近接情報を保存するフレームワークであるFair-KGNNを提案する。
ジェンダー占有とナショナリティ・サリーバイアスを軽減するために,2つの最先端KGNNモデル(RCCNとCompGCN)を組み込んだFair-KGNNの2例を開発した。
論文 参考訳(メタデータ) (2022-11-26T05:55:34Z) - On Structural Explanation of Bias in Graph Neural Networks [40.323880315453906]
グラフニューラルネットワーク (GNN) は, 様々なグラフ解析問題において, 満足度の高い性能を示す。
GNNは特定の人口集団に対して偏見のある結果をもたらす可能性がある。
本稿では,GNNにおけるバイアスの構造的説明に関する新しい研究課題について検討する。
論文 参考訳(メタデータ) (2022-06-24T06:49:21Z) - Improving Fairness in Graph Neural Networks via Mitigating Sensitive
Attribute Leakage [35.810534649478576]
グラフニューラルネットワーク(GNN)は、グラフ上のノード表現を学習する際の大きな力を示している。
GNNは、トレーニングデータから歴史的偏見を継承し、予測における差別的偏見をもたらす可能性がある。
本研究ではFairVGNN(Fair View Graph Neural Network)を提案する。
論文 参考訳(メタデータ) (2022-06-07T16:25:20Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。