論文の概要: Better Fair than Sorry: Adversarial Missing Data Imputation for Fair GNNs
- arxiv url: http://arxiv.org/abs/2311.01591v3
- Date: Mon, 10 Feb 2025 16:32:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:24:53.098779
- Title: Better Fair than Sorry: Adversarial Missing Data Imputation for Fair GNNs
- Title(参考訳): フェア」よりも「フェア」の方が良い:公正なGNNのための敵対的ミスデータインプット
- Authors: Debolina Halder Lina, Arlei Silva,
- Abstract要約: 我々は保護属性に対する公正なデータ計算モデルであるSorryよりも優れたフェアを提案する。
BFtSの鍵となる設計原理は、不定詞はフェアネスの最悪のシナリオを近似すべきである。
合成データセットと実データセットを用いた実験は、BFtSが既存のデータセットよりも精度の高い公平度xのトレードオフを達成できることをしばしば示している。
- 参考スコア(独自算出の注目度): 5.655251163654288
- License:
- Abstract: Graph Neural Networks (GNNs) have achieved state-of-the-art results in many relevant tasks where decisions might disproportionately impact specific communities. However, existing work on fair GNNs often assumes that either protected attributes are fully observed or that the missing protected attribute imputation is fair. In practice, biases in the imputation will propagate to the model outcomes, leading them to overestimate the fairness of their predictions. We address this challenge by proposing Better Fair than Sorry (BFtS), a fair missing data imputation model for protected attributes. The key design principle behind BFtS is that imputations should approximate the worst-case scenario for fairness -- i.e. when optimizing fairness is the hardest. We implement this idea using a 3-player adversarial scheme where two adversaries collaborate against a GNN-based classifier, and the classifier minimizes the maximum bias. Experiments using synthetic and real datasets show that BFtS often achieves a better fairness x accuracy trade-off than existing alternatives.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、決定が特定のコミュニティに不均衡に影響を及ぼす可能性のある多くの関連タスクにおいて、最先端の結果を達成した。
しかしながら、公正なGNNに関する既存の研究は、保護された属性が完全に観察されているか、不足している保護された属性の計算が公正であると仮定することが多い。
実際には、計算結果のバイアスがモデル結果に伝播し、予測の公平さを過大評価する。
保護属性に対する公正なデータ計算モデルであるBFtS(Better Fair than Sorry)を提案することで、この問題に対処する。
BFtSの鍵となる設計原理は、フェアネスの最悪のシナリオ、すなわちフェアネスの最適化が最も難しい場合を、計算が近似すべきであるということである。
本稿では,2人の対戦相手がGNNベースの分類器と協調し,最大バイアスを最小化する3人の対戦相手方式を用いて,この考え方を実装した。
合成データセットと実データセットを用いた実験は、BFtSが既存のデータセットよりも精度の高い公平度xのトレードオフを達成できることをしばしば示している。
関連論文リスト
- Are Your Models Still Fair? Fairness Attacks on Graph Neural Networks via Node Injections [28.86365261170078]
グラフニューラルネットワーク(GNN)では、悪意のある敵対的攻撃に直面した際の公正な脆弱性が明らかにされている。
我々は、より現実的な環境でGNNフェアネスの脆弱性を探求するノードインジェクションベースのフェアネスアタック(NIFA)を紹介する。
NIFAは、ノードの1%だけを注入することで、フェアネスを意識したGNNを含むメインストリームのGNNの公平性を著しく損なう可能性がある。
論文 参考訳(メタデータ) (2024-06-05T08:26:53Z) - The Devil is in the Data: Learning Fair Graph Neural Networks via
Partial Knowledge Distillation [35.17007613884196]
グラフニューラルネットワーク(GNN)は、多くのハイテイクタスクでますます利用されている。
GNNは特定の人口集団に対して差別的な決定をする傾向があるため、不公平であることが示されている。
本稿では,知識蒸留,すなわちFairGKDを用いて,公正なGNNを学習するための人口統計学的手法を提案する。
論文 参考訳(メタデータ) (2023-11-29T05:54:58Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Adversarial Attacks on Fairness of Graph Neural Networks [63.155299388146176]
公正を意識したグラフニューラルネットワーク(GNN)は、どの人口集団でも予測のバイアスを減らすことができるため、注目を集めている。
これらの手法はGNNのアルゴリズム的公正性を大幅に改善するが、慎重に設計された敵攻撃によって容易に公正性を損なうことができる。
論文 参考訳(メタデータ) (2023-10-20T21:19:54Z) - Towards Fair Graph Neural Networks via Graph Counterfactual [38.721295940809135]
グラフニューラルネットワーク(GNN)は、グラフ上での表現(GNN)学習の優れた能力を示し、さまざまなタスクを容易にしている。
最近の研究によると、GNNはトレーニングデータからのバイアスを継承し、増幅する傾向にあり、高いシナリオでGNNが採用されることが懸念されている。
本研究では,非現実的な反事実を避けるために,非現実的な反事実をトレーニングデータから選択できる新しいフレームワークCAFを提案する。
論文 参考訳(メタデータ) (2023-07-10T23:28:03Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。