論文の概要: Bridging the Fairness Divide: Achieving Group and Individual Fairness in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2404.17511v1
- Date: Fri, 26 Apr 2024 16:26:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 12:35:26.085564
- Title: Bridging the Fairness Divide: Achieving Group and Individual Fairness in Graph Neural Networks
- Title(参考訳): フェアネスディバイドのブリッジ:グラフニューラルネットワークにおけるグループ達成と個人フェアネス
- Authors: Duna Zhan, Dongliang Guo, Pengsheng Ji, Sheng Li,
- Abstract要約: 我々は、グループ内の個々人の公正という新しい概念と、グループと個人のための公正(FairGI)という新しい枠組みを提案する。
我々のアプローチは、グループフェアネスやグループ内の個人フェアネスにおいて、他の最先端モデルよりも優れているだけでなく、集団レベルの個人フェアネスにおいても優れたパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 9.806215623623684
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have emerged as a powerful tool for analyzing and learning from complex data structured as graphs, demonstrating remarkable effectiveness in various applications, such as social network analysis, recommendation systems, and drug discovery. However, despite their impressive performance, the fairness problem has increasingly gained attention as a crucial aspect to consider. Existing research in graph learning focuses on either group fairness or individual fairness. However, since each concept provides unique insights into fairness from distinct perspectives, integrating them into a fair graph neural network system is crucial. To the best of our knowledge, no study has yet to comprehensively tackle both individual and group fairness simultaneously. In this paper, we propose a new concept of individual fairness within groups and a novel framework named Fairness for Group and Individual (FairGI), which considers both group fairness and individual fairness within groups in the context of graph learning. FairGI employs the similarity matrix of individuals to achieve individual fairness within groups, while leveraging adversarial learning to address group fairness in terms of both Equal Opportunity and Statistical Parity. The experimental results demonstrate that our approach not only outperforms other state-of-the-art models in terms of group fairness and individual fairness within groups, but also exhibits excellent performance in population-level individual fairness, while maintaining comparable prediction accuracy.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフとして構造化された複雑なデータから分析および学習するための強力なツールとして登場し、ソーシャルネットワーク分析、レコメンデーションシステム、薬物発見など、さまざまなアプリケーションにおいて顕著な効果を示している。
しかし、その見事なパフォーマンスにもかかわらず、公平性の問題が考慮すべき重要な側面として注目を集めている。
グラフ学習における既存の研究は、グループフェアネスまたは個人フェアネスに焦点を当てている。
しかしながら、それぞれの概念は、異なる視点から公正性に関するユニークな洞察を提供するため、それらを公正なグラフニューラルネットワークシステムに統合することが不可欠である。
我々の知る限りでは、個人と集団の公平性の両方を同時に包括的に取り組んだ研究はまだ行われていない。
本稿では,グループ内個性の概念と,グループ内個性とグループ内個性の両方を考慮したFairGI(Fairness for Group and Individual)というフレームワークを提案する。
FairGIは、グループ内の個々の公正を達成するために個人の類似性マトリックスを使用し、対人学習を活用して、平等機会と統計的パリティの両方の観点からグループフェアネスに対処する。
実験結果から,本手法はグループフェアネスやグループ内の個人フェアネスにおいて,他の最先端モデルよりも優れるだけでなく,集団レベルの個人フェアネスにおいても優れた性能を示しながら,同等の予測精度を維持していることが示された。
関連論文リスト
- A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - The Flawed Foundations of Fair Machine Learning [0.0]
統計的に正確な結果と類似した結果とのトレードオフが存在することを示す。
本稿では,統計的に正確な結果とグループ類似の結果の関係を理解する上で,研究者やデザイナーを支援するための概念実証手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T10:07:12Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - FairFed: Enabling Group Fairness in Federated Learning [22.913999279079878]
フェデレーテッド・ラーニングは、複数のパーティで機械学習モデルを学習するための有望なソリューションと見なされている。
フェアネスを意識したアグリゲーション手法によりグループフェアネスを高める新しいアルゴリズムであるFairFedを提案する。
提案手法は,高度の不均一な属性分布の下で,最先端の公正な学習フレームワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-02T17:55:20Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Metric-Free Individual Fairness with Cooperative Contextual Bandits [17.985752744098267]
グループフェアネスは、グループ内の一部の個人に対して不公平であるように、異なるグループが同様に扱われるべきである。
個々の公正性は、問題固有の類似度指標に依存するため、まだ検討されていない。
本研究では,メトリックフリーな個人フェアネスと協調的文脈帯域幅アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-13T03:10:35Z) - Fair Hierarchical Clustering [92.03780518164108]
従来のクラスタリングにおける過剰表現を緩和する公平性の概念を定義する。
我々のアルゴリズムは、目的に対して無視できない損失しか持たない、公平な階層的なクラスタリングを見つけることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T01:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。