論文の概要: GRAPHGINI: Fostering Individual and Group Fairness in Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2402.12937v1
- Date: Tue, 20 Feb 2024 11:38:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 15:29:10.892298
- Title: GRAPHGINI: Fostering Individual and Group Fairness in Graph Neural
Networks
- Title(参考訳): GraphGINI: グラフニューラルネットワークにおける個人とグループフェアネスの育成
- Authors: Anuj Kumar Sirohi, Anjali Gupta, Sayan Ranu, Sandeep Kumar, Amitabha
Bagchi
- Abstract要約: 本稿では,GNNフレームワーク内で用いられる公平性の尺度として,Gini係数を組み込む手法を初めて紹介する。
我々の提案であるGRAPHGINIは、単一システムにおける個人とグループフェアネスの2つの異なる目標に対処する。
- 参考スコア(独自算出の注目度): 17.539327573240488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the growing apprehension that GNNs, in the absence of fairness
constraints, might produce biased decisions that disproportionately affect
underprivileged groups or individuals. Departing from previous work, we
introduce for the first time a method for incorporating the Gini coefficient as
a measure of fairness to be used within the GNN framework. Our proposal,
GRAPHGINI, works with the two different goals of individual and group fairness
in a single system, while maintaining high prediction accuracy. GRAPHGINI
enforces individual fairness through learnable attention scores that help in
aggregating more information through similar nodes. A heuristic-based maximum
Nash social welfare constraint ensures the maximum possible group fairness.
Both the individual fairness constraint and the group fairness constraint are
stated in terms of a differentiable approximation of the Gini coefficient. This
approximation is a contribution that is likely to be of interest even beyond
the scope of the problem studied in this paper. Unlike other state-of-the-art,
GRAPHGINI automatically balances all three optimization objectives (utility,
individual, and group fairness) of the GNN and is free from any manual tuning
of weight parameters. Extensive experimentation on real-world datasets
showcases the efficacy of GRAPHGINI in making significant improvements in
individual fairness compared to all currently available state-of-the-art
methods while maintaining utility and group equality.
- Abstract(参考訳): 公正な制約がなければ、GNNが不公平なグループや個人に不公平に影響を及ぼすような偏見のある決定を生み出す可能性があるという認識の高まりに対処する。
これまでの研究とは別に、GNNフレームワーク内で用いられる公平性の尺度として、Gini係数を組み込む手法を初めて紹介する。
提案手法である GraphGINI は,高い予測精度を維持しつつ,単一システムにおける個人とグループフェアネスの2つの異なる目標に対処する。
GraphGINIは学習可能なアテンションスコアを通じて個々のフェアネスを強制し、同様のノードを通じてより多くの情報を集約するのに役立つ。
ヒューリスティックに基づく最大ナッシュ社会福祉制約は、最大集団公正性を保証する。
個々のフェアネス制約と群フェアネス制約の両方は、ジーニ係数の微分可能近似の観点から記述される。
この近似は、本論文で研究されている問題の範囲を超えても興味をそそられるであろう貢献である。
他の最先端技術とは異なり、 GraphGINIはGNNの3つの最適化目標(実用性、個人、グループフェアネス)を自動でバランスさせ、重みパラメータのマニュアルチューニングは一切行わない。
実世界のデータセットに対する大規模な実験は、ユーティリティとグループ平等を維持しながら、現在利用可能なすべての最先端の手法と比較して、個人の公正性を大幅に改善するグラジニの有効性を示す。
関連論文リスト
- Rethinking Fair Graph Neural Networks from Re-balancing [26.70771023446706]
単純な再分散手法は、既存の公正なGNN手法と容易に一致するか、追い越すことができる。
本稿では,グループバランスによるGNNの不公平さを軽減するために,再バランシングによるFairGB,Fair Graph Neural Networkを提案する。
論文 参考訳(メタデータ) (2024-07-16T11:39:27Z) - Fairness-Aware Meta-Learning via Nash Bargaining [63.44846095241147]
本稿では,機械学習におけるグループレベルの公平性の問題に対処する2段階のメタ学習フレームワークを提案する。
第1段階では、過度な競合を解決するためにNash Bargaining Solution(NBS)を使用して、モデルをステアリングする。
6つのキーフェアネスデータセットと2つの画像分類タスクにおいて、様々なフェアネス目標に対して経験的効果を示す。
論文 参考訳(メタデータ) (2024-06-11T07:34:15Z) - Individual Fairness Through Reweighting and Tuning [0.23395944472515745]
社会内の本質的なバイアスは、人工知能(AI)システムによって増幅し、永続することができる。
近年,グラフラプラシアン正則化器 (GLR) が一般リプシッツ条件の代用として用いられ,個人の公正性を高めている。
本研究では,GLRを列車上で独立に定義し,目標データに類似した精度を維持できるかどうかを検討した。
論文 参考訳(メタデータ) (2024-05-02T20:15:25Z) - Bridging the Fairness Divide: Achieving Group and Individual Fairness in Graph Neural Networks [9.806215623623684]
我々は、グループ内の個々人の公正という新しい概念と、グループと個人のための公正(FairGI)という新しい枠組みを提案する。
我々のアプローチは、グループフェアネスやグループ内の個人フェアネスにおいて、他の最先端モデルよりも優れているだけでなく、集団レベルの個人フェアネスにおいても優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-04-26T16:26:11Z) - No prejudice! Fair Federated Graph Neural Networks for Personalized
Recommendation [5.183572923833202]
本稿では,異なる人口集団を対象としたレコメンデーションシステム(Recommendation Systems, RS)における固有バイアスの広範的問題に対処する。
我々は、パーソナライズされたグラフニューラルネットワーク(GNN)のパワーと公平性を考慮した新しいフレームワークであるF2PGNNを提案する。
F2PGNNは、プライバシを保ち、実用性を維持する一方で、最先端技術と比較して、グループ不公平を47%~99%軽減していることを示す。
論文 参考訳(メタデータ) (2023-12-10T18:33:45Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - GFairHint: Improving Individual Fairness for Graph Neural Networks via
Fairness Hint [15.828830496326885]
グラフニューラルネットワーク(GNN)のアルゴリズムフェアネスは注目されている。
本稿では,GNNにおける個々人の公平性を促進する新しい手法GFairHintを提案する。
GFairHintは、データセットとさまざまなバックボーンモデルの組み合わせで、最も公正な結果を達成する。
論文 参考訳(メタデータ) (2023-05-25T00:03:22Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Group Whitening: Balancing Learning Efficiency and Representational
Capacity [98.52552448012598]
グループホワイトニング(GW)は、ホワイトニング操作の利点を活用し、ミニバッチ内での正規化の欠点を回避する。
我々は、GWが異なるアーキテクチャのパフォーマンスを継続的に改善し、絶対的なゲインが$1.02%$$sim$1.49%$のImageNet上のトップ1精度と$1.82%$$$sim$$21%$のバウンディングボックスAPのCOCO上のバウンディングボックスAPであることを示した。
論文 参考訳(メタデータ) (2020-09-28T14:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。