論文の概要: Learning Fair Node Representations with Graph Counterfactual Fairness
- arxiv url: http://arxiv.org/abs/2201.03662v1
- Date: Mon, 10 Jan 2022 21:43:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 13:55:56.267619
- Title: Learning Fair Node Representations with Graph Counterfactual Fairness
- Title(参考訳): グラフカウンターファクトフェアネスを用いたフェアノード表現の学習
- Authors: Jing Ma, Ruocheng Guo, Mengting Wan, Longqi Yang, Aidong Zhang,
Jundong Li
- Abstract要約: 以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
- 参考スコア(独自算出の注目度): 56.32231787113689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fair machine learning aims to mitigate the biases of model predictions
against certain subpopulations regarding sensitive attributes such as race and
gender. Among the many existing fairness notions, counterfactual fairness
measures the model fairness from a causal perspective by comparing the
predictions of each individual from the original data and the counterfactuals.
In counterfactuals, the sensitive attribute values of this individual had been
modified. Recently, a few works extend counterfactual fairness to graph data,
but most of them neglect the following facts that can lead to biases: 1) the
sensitive attributes of each node's neighbors may causally affect the
prediction w.r.t. this node; 2) the sensitive attributes may causally affect
other features and the graph structure. To tackle these issues, in this paper,
we propose a novel fairness notion - graph counterfactual fairness, which
considers the biases led by the above facts. To learn node representations
towards graph counterfactual fairness, we propose a novel framework based on
counterfactual data augmentation. In this framework, we generate
counterfactuals corresponding to perturbations on each node's and their
neighbors' sensitive attributes. Then we enforce fairness by minimizing the
discrepancy between the representations learned from the original graph and the
counterfactuals for each node. Experiments on both synthetic and real-world
graphs show that our framework outperforms the state-of-the-art baselines in
graph counterfactual fairness, and also achieves comparable prediction
performance.
- Abstract(参考訳): fair machine learningは、人種や性別などの繊細な属性に関する特定のサブポピュレーションに対するモデル予測のバイアスを軽減することを目的としている。
既存の多くのフェアネス概念のうち、反事実公平性は、原データと反事実から各個人の予測を比較することによって、因果的な観点からモデルフェアネスを測定する。
反事実では、この個人の繊細な属性値が変更された。
最近、いくつかの作品がグラフデータに対する反事実的公平性を拡張しているが、そのほとんどはバイアスにつながる可能性のある以下の事実を無視している。
1) 各ノードの隣接ノードの繊細な属性は,このノードの予測w.r.tに因果的に影響を及ぼす可能性がある。
2) 感度特性は他の特徴やグラフ構造に因果的に影響を及ぼす可能性がある。
本稿では,これらの問題に対処するために,上記の事実に導かれるバイアスを考える新しい公平性概念であるグラフ反事実公平性を提案する。
グラフの反事実的公平性に向けてノード表現を学ぶために,反事実的データ拡張に基づく新しい枠組みを提案する。
このフレームワークでは、各ノードとその隣接ノードの機密属性の摂動に対応する反事実を生成する。
次に、元のグラフから学習した表現と各ノードの反事実との相違を最小化することにより、公正性を強制する。
合成グラフと実世界のグラフの両方の実験により、我々のフレームワークはグラフの反ファクトフェアネスにおいて最先端のベースラインよりも優れており、同等の予測性能も達成している。
関連論文リスト
- Endowing Pre-trained Graph Models with Provable Fairness [49.8431177748876]
証明可能な公正性を持つ事前学習グラフモデル(GraphPAR)を実現する新しいアダプタチューニングフレームワークを提案する。
具体的には、各ノードに対して異なる属性意味を持つノード表現を拡張するために、ノード表現に対するセンシティブなセマンティックオーグメンタを設計する。
GraphPARでは、各ノードの公平性が証明可能であるかどうか、すなわち、予測が特定の機密属性セマンティクスの範囲内で常に公平であるかどうかを定量化する。
論文 参考訳(メタデータ) (2024-02-19T14:16:08Z) - Graph Fairness Learning under Distribution Shifts [33.9878682279549]
グラフニューラルネットワーク(GNN)は、グラフ構造化データにおいて顕著なパフォーマンスを実現している。
GNNは、トレーニングデータから偏見を継承し、性別や人種などのセンシティブな属性に基づいて差別予測を行うことができる。
本稿では,異なる距離で有意な偏差を持つ多数のグラフを生成するグラフ生成器を提案する。
論文 参考訳(メタデータ) (2024-01-30T06:51:24Z) - FairSample: Training Fair and Accurate Graph Convolutional Neural
Networks Efficiently [29.457338893912656]
センシティブなグループに対する社会的バイアスは多くの実世界のグラフに存在するかもしれない。
本稿では,グラフ構造バイアス,ノード属性バイアス,モデルパラメータがGCNの人口動態にどのように影響するかを詳細に分析する。
私たちの洞察は、3種類のバイアスを緩和するフレームワークであるFairSampleにつながります。
論文 参考訳(メタデータ) (2024-01-26T08:17:12Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fair Attribute Completion on Graph with Missing Attributes [14.950261239035882]
フェア属性補完法であるFairACを提案し,不備な属性を持つグラフに対するフェアノード埋め込みを学習する。
本手法は,公正なグラフ学習の最先端手法と比較して,精度の犠牲を少なくして,公平性を向上できることを示す。
論文 参考訳(メタデータ) (2023-02-25T04:12:30Z) - Graph Learning with Localized Neighborhood Fairness [32.301270877134]
近所のフェアネスの概念を導入し、そのような局所的なフェア埋め込みを学習するための計算フレームワークを開発する。
本稿では,フェアリンク予測,リンク分類,学習フェアグラフ埋め込みなど,さまざまなグラフ機械学習タスクに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-12-22T21:20:43Z) - Counterfactual Fairness with Partially Known Causal Graph [85.15766086381352]
本稿では,真の因果グラフが不明な場合に,対実フェアネスの概念を実現するための一般的な手法を提案する。
特定の背景知識が提供されると、正の因果グラフが完全に知られているかのように、反ファクト的公正性を達成することができる。
論文 参考訳(メタデータ) (2022-05-27T13:40:50Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Biased Edge Dropout for Enhancing Fairness in Graph Representation
Learning [14.664485680918725]
本稿では,グラフ表現学習における公平性向上と相反するバイアスド・エッジ・ドロップアウトアルゴリズム(fairdrop)を提案する。
FairDropは、多くの既存のアルゴリズムに簡単に接続でき、効率的で適応可能で、他の公平性誘導ソリューションと組み合わせることができます。
提案手法は,すべてのモデルのフェアネスを小さく,あるいは無視可能な精度低下まで改善できることを実証する。
論文 参考訳(メタデータ) (2021-04-29T08:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。