論文の概要: Biased Edge Dropout for Enhancing Fairness in Graph Representation
Learning
- arxiv url: http://arxiv.org/abs/2104.14210v1
- Date: Thu, 29 Apr 2021 08:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-04-30 20:50:05.871961
- Title: Biased Edge Dropout for Enhancing Fairness in Graph Representation
Learning
- Title(参考訳): グラフ表現学習における公平性向上のための偏りエッジドロップアウト
- Authors: Indro Spinelli, Simone Scardapane, Amir Hussain, Aurelio Uncini
- Abstract要約: 本稿では,グラフ表現学習における公平性向上と相反するバイアスド・エッジ・ドロップアウトアルゴリズム(fairdrop)を提案する。
FairDropは、多くの既存のアルゴリズムに簡単に接続でき、効率的で適応可能で、他の公平性誘導ソリューションと組み合わせることができます。
提案手法は,すべてのモデルのフェアネスを小さく,あるいは無視可能な精度低下まで改善できることを実証する。
- 参考スコア(独自算出の注目度): 14.664485680918725
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph representation learning has become a ubiquitous component in many
scenarios, ranging from social network analysis to energy forecasting in smart
grids. In several applications, ensuring the fairness of the node (or graph)
representations with respect to some protected attributes is crucial for their
correct deployment. Yet, fairness in graph deep learning remains
under-explored, with few solutions available. In particular, the tendency of
similar nodes to cluster on several real-world graphs (i.e., homophily) can
dramatically worsen the fairness of these procedures. In this paper, we propose
a biased edge dropout algorithm (FairDrop) to counter-act homophily and improve
fairness in graph representation learning. FairDrop can be plugged in easily on
many existing algorithms, is efficient, adaptable, and can be combined with
other fairness-inducing solutions. After describing the general algorithm, we
demonstrate its application on two benchmark tasks, specifically, as a random
walk model for producing node embeddings, and to a graph convolutional network
for link prediction. We prove that the proposed algorithm can successfully
improve the fairness of all models up to a small or negligible drop in
accuracy, and compares favourably with existing state-of-the-art solutions. In
an ablation study, we demonstrate that our algorithm can flexibly interpolate
between biasing towards fairness and an unbiased edge dropout. Furthermore, to
better evaluate the gains, we propose a new dyadic group definition to measure
the bias of a link prediction task when paired with group-based fairness
metrics. In particular, we extend the metric used to measure the bias in the
node embeddings to take into account the graph structure.
- Abstract(参考訳): グラフ表現学習は、ソーシャルネットワーク分析からスマートグリッドでのエネルギー予測まで、多くのシナリオでユビキタスなコンポーネントになっています。
いくつかのアプリケーションでは、保護された属性に対するノード(またはグラフ)表現の公平性を保証することが、正しい配置に不可欠である。
しかし、グラフの深層学習における公正さは未解決のままであり、ソリューションはほとんどない。
特に、いくつかの実世界のグラフ(すなわちホモフィリー)上の類似ノードのクラスタ化傾向は、これらのプロシージャの公平性を劇的に悪化させる。
本稿では,グラフ表現学習におけるホモフィリーの反作用と公平性向上のためのバイアスドエッジドロップアウトアルゴリズム(FairDrop)を提案する。
FairDropは、既存の多くのアルゴリズムで簡単にプラグインでき、効率的で適応性があり、他のフェアネス誘導ソリューションと組み合わせることができる。
一般的なアルゴリズムを記述した後、ノード埋め込みを生成するランダムウォークモデルと、リンク予測のためのグラフ畳み込みネットワークという2つのベンチマークタスクでその応用例を示す。
提案手法は,すべてのモデルのフェアネスを小さく,あるいは無視できる精度まで向上し,既存の最先端ソリューションと比較することができることを実証する。
アブレーション研究において,本アルゴリズムは公平性に対する偏りと偏りのないエッジドロップアウトを柔軟に補間できることを実証する。
さらに,利得をより良く評価するために,グループベースフェアネス指標と組み合わせた場合のリンク予測タスクのバイアスを測定するための新しいdyadicグループ定義を提案する。
特に、グラフ構造を考慮したノード埋め込みにおけるバイアスを測定するために用いられる計量を拡張した。
関連論文リスト
- FairSample: Training Fair and Accurate Graph Convolutional Neural
Networks Efficiently [29.457338893912656]
センシティブなグループに対する社会的バイアスは多くの実世界のグラフに存在するかもしれない。
本稿では,グラフ構造バイアス,ノード属性バイアス,モデルパラメータがGCNの人口動態にどのように影響するかを詳細に分析する。
私たちの洞察は、3種類のバイアスを緩和するフレームワークであるFairSampleにつながります。
論文 参考訳(メタデータ) (2024-01-26T08:17:12Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - Fairness-aware Optimal Graph Filter Design [25.145533328758614]
グラフは、複雑な現実世界の相互接続システムを表現するために使用できる数学的ツールである。
グラフ上の機械学習(ML)は、最近大きな注目を集めている。
グラフ信号処理からの洞察を借りて,グラフ学習におけるバイアス緩和の問題を新たに検討する。
論文 参考訳(メタデータ) (2023-10-22T22:40:40Z) - Drop Edges and Adapt: a Fairness Enforcing Fine-tuning for Graph Neural
Networks [9.362130313618797]
リンク予測アルゴリズムは、特定の人口集団の個人間のリンクを嫌う傾向がある。
本稿では,グラフニューラルネットワークに対して,微調整戦略を用いて公平性を強制する新しい手法を提案する。
DEAの新たな特徴の1つは、微調整に離散的だが学習可能な隣接行列を使うことができることである。
論文 参考訳(メタデータ) (2023-02-22T16:28:08Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - Graph Learning with Localized Neighborhood Fairness [32.301270877134]
近所のフェアネスの概念を導入し、そのような局所的なフェア埋め込みを学習するための計算フレームワークを開発する。
本稿では,フェアリンク予測,リンク分類,学習フェアグラフ埋め込みなど,さまざまなグラフ機械学習タスクに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-12-22T21:20:43Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Fairness-Aware Node Representation Learning [9.850791193881651]
本研究は,グラフ強化設計によるグラフ対照的学習における公平性問題に対処する。
グラフ上の異なる公平性の概念を導入し、提案されたグラフ拡張のガイドラインとして機能する。
実ソーシャルネットワークにおける実験結果から,提案した拡張により,統計的平等と平等な機会の両面において公平性が向上することを示した。
論文 参考訳(メタデータ) (2021-06-09T21:12:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。