論文の概要: FairMILE: A Multi-Level Framework for Fair and Scalable Graph
Representation Learning
- arxiv url: http://arxiv.org/abs/2211.09925v1
- Date: Thu, 17 Nov 2022 22:52:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 15:44:32.389483
- Title: FairMILE: A Multi-Level Framework for Fair and Scalable Graph
Representation Learning
- Title(参考訳): FairMile: 公正でスケーラブルなグラフ表現学習のためのマルチレベルフレームワーク
- Authors: Yuntian He, Saket Gurukar, Srinivasan Parthasarathy
- Abstract要約: グラフ表現学習モデルは、複数のハイテイクシナリオで意思決定するためにデプロイされている。
これらのモデルが公平であることを保証することが不可欠である。これまでの研究では、グラフニューラルネットワークがグラフデータに存在するバイアスを継承し、強化できることが示されている。
公正でスケーラブルなグラフ表現学習のためのフレームワークであるFairMILEを紹介する。
- 参考スコア(独自算出の注目度): 8.135923215042709
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph representation learning models have been deployed for making decisions
in multiple high-stakes scenarios. It is therefore critical to ensure that
these models are fair. Prior research has shown that graph neural networks can
inherit and reinforce the bias present in graph data. Researchers have begun to
examine ways to mitigate the bias in such models. However, existing efforts are
restricted by their inefficiency, limited applicability, and the constraints
they place on sensitive attributes. To address these issues, we present
FairMILE a general framework for fair and scalable graph representation
learning. FairMILE is a multi-level framework that allows contemporary
unsupervised graph embedding methods to scale to large graphs in an agnostic
manner. FairMILE learns both fair and high-quality node embeddings where the
fairness constraints are incorporated in each phase of the framework. Our
experiments across two distinct tasks demonstrate that FairMILE can learn node
representations that often achieve superior fairness scores and high downstream
performance while significantly outperforming all the baselines in terms of
efficiency.
- Abstract(参考訳): グラフ表現学習モデルは、複数のハイテイクシナリオで意思決定するためにデプロイされている。
したがって、これらのモデルが公平であることを保証することは重要である。
先行研究では、グラフニューラルネットワークがグラフデータに存在するバイアスを継承し、強化できることが示されている。
研究者たちは、このようなモデルのバイアスを軽減する方法の検討を始めた。
しかし、既存の取り組みは、その非効率性、限定的な適用性、それらが機密属性に課す制約によって制限されている。
これらの問題に対処するため、公正でスケーラブルなグラフ表現学習のための一般的なフレームワークであるFairMILEを提案する。
fairmileはマルチレベルフレームワークで、現代の教師なしグラフ埋め込みメソッドを、無依存に大規模グラフにスケールできる。
FairMILEは、フレームワークの各フェーズに公正性制約が組み込まれている公正なノード埋め込みと高品質なノード埋め込みの両方を学ぶ。
2つの異なるタスクにわたる実験により、FairMILEは、優れた公正度スコアと高い下流性能を達成できるノード表現を学習でき、効率の点で全てのベースラインを大幅に上回ることを示した。
関連論文リスト
- Debiasing Graph Representation Learning based on Information Bottleneck [18.35405511009332]
本稿では,変分グラフオートエンコーダに基づく新しいフレームワークGRAFairの設計と実装について述べる。
GRAFairの要点は条件フェアネス・ボトルネック(Conditional Fairness Bottleneck)であり、表現の効用と関心の情報とのトレードオフを捉えることを目的としている。
実世界の様々なデータセットに対する実験により,提案手法の有効性を,公正性,有用性,堅牢性,安定性の観点から実証した。
論文 参考訳(メタデータ) (2024-09-02T16:45:23Z) - A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Latent Heterogeneous Graph Network for Incomplete Multi-View Learning [57.49776938934186]
非完全多視点学習のための新しい遅延不均質グラフネットワーク(LHGN)を提案する。
統一された潜在表現を学習することにより、異なる視点間の一貫性と相補性の間のトレードオフが暗黙的に実現される。
学習とテストフェーズの不整合を回避するため,分類タスクのグラフ学習に基づくトランスダクティブ学習手法を適用した。
論文 参考訳(メタデータ) (2022-08-29T15:14:21Z) - Fair Node Representation Learning via Adaptive Data Augmentation [9.492903649862761]
この研究は、グラフニューラルネットワーク(GNN)を用いて得られるノード表現のバイアス源を理論的に説明する。
この分析に基づいて、本質的なバイアスを低減するために、公正に意識したデータ拡張フレームワークを開発した。
分析と提案手法は,様々なGNN学習機構の公平性を高めるために容易に利用できる。
論文 参考訳(メタデータ) (2022-01-21T05:49:15Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Fairness-Aware Node Representation Learning [9.850791193881651]
本研究は,グラフ強化設計によるグラフ対照的学習における公平性問題に対処する。
グラフ上の異なる公平性の概念を導入し、提案されたグラフ拡張のガイドラインとして機能する。
実ソーシャルネットワークにおける実験結果から,提案した拡張により,統計的平等と平等な機会の両面において公平性が向上することを示した。
論文 参考訳(メタデータ) (2021-06-09T21:12:14Z) - Biased Edge Dropout for Enhancing Fairness in Graph Representation
Learning [14.664485680918725]
本稿では,グラフ表現学習における公平性向上と相反するバイアスド・エッジ・ドロップアウトアルゴリズム(fairdrop)を提案する。
FairDropは、多くの既存のアルゴリズムに簡単に接続でき、効率的で適応可能で、他の公平性誘導ソリューションと組み合わせることができます。
提案手法は,すべてのモデルのフェアネスを小さく,あるいは無視可能な精度低下まで改善できることを実証する。
論文 参考訳(メタデータ) (2021-04-29T08:59:36Z) - Model-Agnostic Graph Regularization for Few-Shot Learning [60.64531995451357]
グラフ組み込み数ショット学習に関する包括的な研究を紹介します。
本稿では,ラベル間のグラフ情報の組み込みによる影響をより深く理解できるグラフ正規化手法を提案する。
提案手法は,Mini-ImageNetで最大2%,ImageNet-FSで6.7%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-02-14T05:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。