論文の概要: Debiasing Graph Representation Learning based on Information Bottleneck
- arxiv url: http://arxiv.org/abs/2409.01367v1
- Date: Mon, 2 Sep 2024 16:45:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 06:11:05.421297
- Title: Debiasing Graph Representation Learning based on Information Bottleneck
- Title(参考訳): インフォメーション・ボトルネックに基づくグラフ表現学習のバイアス化
- Authors: Ziyi Zhang, Mingxuan Ouyang, Wanyu Lin, Hao Lan, Lei Yang,
- Abstract要約: 本稿では,変分グラフオートエンコーダに基づく新しいフレームワークGRAFairの設計と実装について述べる。
GRAFairの要点は条件フェアネス・ボトルネック(Conditional Fairness Bottleneck)であり、表現の効用と関心の情報とのトレードオフを捉えることを目的としている。
実世界の様々なデータセットに対する実験により,提案手法の有効性を,公正性,有用性,堅牢性,安定性の観点から実証した。
- 参考スコア(独自算出の注目度): 18.35405511009332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph representation learning has shown superior performance in numerous real-world applications, such as finance and social networks. Nevertheless, most existing works might make discriminatory predictions due to insufficient attention to fairness in their decision-making processes. This oversight has prompted a growing focus on fair representation learning. Among recent explorations on fair representation learning, prior works based on adversarial learning usually induce unstable or counterproductive performance. To achieve fairness in a stable manner, we present the design and implementation of GRAFair, a new framework based on a variational graph auto-encoder. The crux of GRAFair is the Conditional Fairness Bottleneck, where the objective is to capture the trade-off between the utility of representations and sensitive information of interest. By applying variational approximation, we can make the optimization objective tractable. Particularly, GRAFair can be trained to produce informative representations of tasks while containing little sensitive information without adversarial training. Experiments on various real-world datasets demonstrate the effectiveness of our proposed method in terms of fairness, utility, robustness, and stability.
- Abstract(参考訳): グラフ表現学習は、金融やソーシャルネットワークなど、多くの現実世界のアプリケーションにおいて優れたパフォーマンスを示している。
しかし、既存の作品の多くは、意思決定プロセスにおける公正性への注意不足のために差別的な予測を下す可能性がある。
この監視によって、公正な表現学習への注目が高まっている。
公正表現学習に関する最近の研究の中で、敵対的学習に基づく先行研究は、通常不安定または反生産的なパフォーマンスを誘発する。
本研究では,変動グラフオートエンコーダに基づく新しいフレームワークGRAFairの設計と実装について述べる。
GRAFairの要点は条件フェアネス・ボトルネック(Conditional Fairness Bottleneck)であり、表現の効用と関心の情報とのトレードオフを捉えることを目的としている。
変分近似を適用することにより、最適化対象を抽出できる。
特にGRAFairは、敵の訓練を受けずに機密情報をほとんど含まないまま、タスクの情報表現を訓練することができる。
実世界の様々なデータセットに対する実験により,提案手法の有効性を,公正性,有用性,堅牢性,安定性の観点から実証した。
関連論文リスト
- A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - Transductive Reward Inference on Graph [53.003245457089406]
本稿では,グラフ上の情報伝達の文脈特性に基づく報酬推定手法を提案する。
利用可能なデータと限定的な報酬アノテーションの両方を活用して、報酬伝達グラフを構築します。
構築したグラフをトランスダクティブな報酬推定に使用し,非競合データに対する報酬を推定する。
論文 参考訳(メタデータ) (2024-02-06T03:31:28Z) - Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - FairMILE: Towards an Efficient Framework for Fair Graph Representation
Learning [4.75624470851544]
本稿では,効率的な公正グラフ表現学習の課題について検討し,新しいフレームワークであるFairMILEを提案する。
FairMILEはグラフ表現を効率よく学習できるマルチレベルパラダイムであり、公正さと有効性を保っている。
論文 参考訳(メタデータ) (2022-11-17T22:52:10Z) - Sustaining Fairness via Incremental Learning [16.985698188471016]
本稿では,新たなタスクを段階的に学習しながら,公平性を維持できる表現学習システムであるFairness-Aware Incremental Representation Learning (FaIRL)を提案する。
FaIRLは、学習した表現の速度歪み関数を制御することにより、公平性を達成し、新しいタスクを学習することができる。
論文 参考訳(メタデータ) (2022-08-25T17:02:37Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Adversarial Stacked Auto-Encoders for Fair Representation Learning [1.061960673667643]
そこで本稿では,データ表現のさまざまなレベルを活用して,学習した表現の公平性境界を厳格化するための,新しい公正表現学習手法を提案する。
その結果、異なる自動エンコーダを積み重ね、異なる潜在空間でフェアネスを強制すると、他の既存手法と比較してフェアネスが向上することがわかった。
論文 参考訳(メタデータ) (2021-07-27T13:49:18Z) - Fairness-Aware Node Representation Learning [9.850791193881651]
本研究は,グラフ強化設計によるグラフ対照的学習における公平性問題に対処する。
グラフ上の異なる公平性の概念を導入し、提案されたグラフ拡張のガイドラインとして機能する。
実ソーシャルネットワークにおける実験結果から,提案した拡張により,統計的平等と平等な機会の両面において公平性が向上することを示した。
論文 参考訳(メタデータ) (2021-06-09T21:12:14Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。