論文の概要: Fair Node Representation Learning via Adaptive Data Augmentation
- arxiv url: http://arxiv.org/abs/2201.08549v1
- Date: Fri, 21 Jan 2022 05:49:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 13:34:08.841900
- Title: Fair Node Representation Learning via Adaptive Data Augmentation
- Title(参考訳): 適応データ拡張による公正なノード表現学習
- Authors: O. Deniz Kose, Yanning Shen
- Abstract要約: この研究は、グラフニューラルネットワーク(GNN)を用いて得られるノード表現のバイアス源を理論的に説明する。
この分析に基づいて、本質的なバイアスを低減するために、公正に意識したデータ拡張フレームワークを開発した。
分析と提案手法は,様々なGNN学習機構の公平性を高めるために容易に利用できる。
- 参考スコア(独自算出の注目度): 9.492903649862761
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Node representation learning has demonstrated its efficacy for various
applications on graphs, which leads to increasing attention towards the area.
However, fairness is a largely under-explored territory within the field, which
may lead to biased results towards underrepresented groups in ensuing tasks. To
this end, this work theoretically explains the sources of bias in node
representations obtained via Graph Neural Networks (GNNs). Our analysis reveals
that both nodal features and graph structure lead to bias in the obtained
representations. Building upon the analysis, fairness-aware data augmentation
frameworks on nodal features and graph structure are developed to reduce the
intrinsic bias. Our analysis and proposed schemes can be readily employed to
enhance the fairness of various GNN-based learning mechanisms. Extensive
experiments on node classification and link prediction are carried out over
real networks in the context of graph contrastive learning. Comparison with
multiple benchmarks demonstrates that the proposed augmentation strategies can
improve fairness in terms of statistical parity and equal opportunity, while
providing comparable utility to state-of-the-art contrastive methods.
- Abstract(参考訳): ノード表現学習は、グラフ上の様々なアプリケーションに対してその効果を実証し、この分野への注目が高まっている。
しかし、フェアネスはフィールド内のほとんど未開拓領域であり、その後のタスクにおいて過小評価されたグループに対して偏った結果をもたらす可能性がある。
この目的のために、この研究はグラフニューラルネットワーク(GNN)を介して得られるノード表現のバイアス源を理論的に説明する。
解析の結果,nodal特徴とグラフ構造の両方が,得られた表現にバイアスをもたらすことが明らかとなった。
この分析に基づいて,本質バイアスを軽減するために,節の特徴とグラフ構造に関する公平性を考慮したデータ拡張フレームワークを開発した。
分析と提案手法は,様々なGNN学習機構の公平性を高めるために容易に利用できる。
グラフコントラスト学習の文脈において,実ネットワーク上でノード分類とリンク予測に関する広範な実験を行った。
複数のベンチマークと比較すると、提案された拡張戦略は、統計的平等と平等な機会の観点から公平性を向上し、最先端のコントラスト手法に匹敵するユーティリティを提供する。
関連論文リスト
- Graph Classification with GNNs: Optimisation, Representation and Inductive Bias [0.6445605125467572]
このような等価性は、付随する最適化問題を無視するものであり、GNN学習プロセスの全体像を提供するものではない、と我々は主張する。
理論的には、グラフ内のメッセージパッシング層は、識別サブグラフか、あるいはグラフ全体に分散した識別ノードの集合を探索する傾向にあることを証明している。
論文 参考訳(メタデータ) (2024-08-17T18:15:44Z) - Graph Reasoning Networks [9.18586425686959]
Graph Reasoning Networks (GRNs) は、グラフ表現と学習したグラフ表現の長所と、微分可能満足度解法に基づく推論モジュールを組み合わせるための新しいアプローチである。
実世界のデータセットの結果は、GNNに匹敵するパフォーマンスを示している。
合成データセットの実験は、新しく提案された手法の可能性を示している。
論文 参考訳(メタデータ) (2024-07-08T10:53:49Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - FairSample: Training Fair and Accurate Graph Convolutional Neural
Networks Efficiently [29.457338893912656]
センシティブなグループに対する社会的バイアスは多くの実世界のグラフに存在するかもしれない。
本稿では,グラフ構造バイアス,ノード属性バイアス,モデルパラメータがGCNの人口動態にどのように影響するかを詳細に分析する。
私たちの洞察は、3種類のバイアスを緩和するフレームワークであるFairSampleにつながります。
論文 参考訳(メタデータ) (2024-01-26T08:17:12Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - FairNorm: Fair and Fast Graph Neural Network Training [9.492903649862761]
グラフニューラルネットワーク(GNN)は、多くのグラフベースの学習タスクの最先端を実現するために実証されている。
GNNは、訓練データ内のバイアスを継承し、さらに増幅し、特定のセンシティブなグループに対して不公平な結果をもたらす可能性があることが示されている。
この研究は、GNNベースの学習におけるバイアスを低減する統一正規化フレームワークであるFairNormを提案する。
論文 参考訳(メタデータ) (2022-05-20T06:10:27Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Fairness-Aware Node Representation Learning [9.850791193881651]
本研究は,グラフ強化設計によるグラフ対照的学習における公平性問題に対処する。
グラフ上の異なる公平性の概念を導入し、提案されたグラフ拡張のガイドラインとして機能する。
実ソーシャルネットワークにおける実験結果から,提案した拡張により,統計的平等と平等な機会の両面において公平性が向上することを示した。
論文 参考訳(メタデータ) (2021-06-09T21:12:14Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。