論文の概要: CAFIN: Centrality Aware Fairness inducing IN-processing for Unsupervised
Representation Learning on Graphs
- arxiv url: http://arxiv.org/abs/2304.04391v1
- Date: Mon, 10 Apr 2023 05:40:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 15:55:56.344159
- Title: CAFIN: Centrality Aware Fairness inducing IN-processing for Unsupervised
Representation Learning on Graphs
- Title(参考訳): CAFIN: グラフ上での教師なし表現学習のためのインプロセッシングによる中心性意識の公平性
- Authors: Arvindh Arun, Aakash Aanegola, Amul Agrawal, Ramasuri Narayanam,
Ponnurangam Kumaraguru
- Abstract要約: グラフ構造を利用してグラフSAGEの表現を改善する内部処理手法であるCAFINを提案する。
本稿では,2つの下流タスク(リンク予測とノード分類)の帰納的設定におけるCAFINの有効性を示す。
- 参考スコア(独自算出の注目度): 10.88984672919873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised representation learning on (large) graphs has received
significant attention in the research community due to the compactness and
richness of the learned embeddings and the abundance of unlabelled graph data.
When deployed, these node representations must be generated with appropriate
fairness constraints to minimize bias induced by them on downstream tasks.
Consequently, group and individual fairness notions for graph learning
algorithms have been investigated for specific downstream tasks. One major
limitation of these fairness notions is that they do not consider the
connectivity patterns in the graph leading to varied node influence (or
centrality power). In this paper, we design a centrality-aware fairness
framework for inductive graph representation learning algorithms. We propose
CAFIN (Centrality Aware Fairness inducing IN-processing), an in-processing
technique that leverages graph structure to improve GraphSAGE's representations
- a popular framework in the unsupervised inductive setting. We demonstrate the
efficacy of CAFIN in the inductive setting on two popular downstream tasks -
Link prediction and Node Classification. Empirically, they consistently
minimize the disparity in fairness between groups across datasets (varying from
18 to 80% reduction in imparity, a measure of group fairness) from different
domains while incurring only a minimal performance cost.
- Abstract(参考訳): 教師なし表現学習(大きなグラフ)は,学習埋め込みのコンパクト性や豊かさ,ラベルなしグラフデータの豊富さなどにより,研究コミュニティにおいて大きな注目を集めている。
デプロイされると、これらのノード表現は、下流タスクで引き起こされるバイアスを最小限に抑えるために、適切な公平性制約で生成されなければならない。
その結果、特定の下流タスクに対して、グラフ学習アルゴリズムに対するグループと個別の公平性の概念が検討された。
これらの公平性の概念の1つの大きな制限は、グラフの接続パターンが様々なノードの影響(あるいは集中力)をもたらすことを考慮していないことである。
本稿では,帰納的グラフ表現学習アルゴリズムのための集中型公正度フレームワークを設計する。
CAFIN(Centrality Aware Fairness inducing IN-processing)は,グラフ構造を利用してグラフSAGEの表現を改善する処理技術である。
2つの一般的なダウンストリームタスクリンク予測とノード分類におけるcafinの有効性を実証した。
実験的には、データセット間のグループ間の公平性の相違を一貫して最小化し(不純物の18から80%の削減、グループ公正性の尺度)、パフォーマンスコストは最小限である。
関連論文リスト
- Fair Graph Neural Network with Supervised Contrastive Regularization [12.666235467177131]
公平性を考慮したグラフニューラルネットワーク(GNN)の学習モデルを提案する。
提案手法は, コントラスト損失と環境損失を統合し, 精度と公正性を両立させる。
論文 参考訳(メタデータ) (2024-04-09T07:49:05Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Marginal Nodes Matter: Towards Structure Fairness in Graphs [77.25149739933596]
構造フェアネスを実現するために,textbfStructural textbfFair textbfGraph textbfNeural textbfNetwork (SFairGNN)を提案する。
実験の結果、SFairGNNは、下流タスクにおける全体的な性能を維持しながら、構造フェアネスを大幅に改善できることがわかった。
論文 参考訳(メタデータ) (2023-10-23T03:20:32Z) - Redundancy-Free Self-Supervised Relational Learning for Graph Clustering [13.176413653235311]
冗長フリーグラフクラスタリング(R$2$FGC)という,自己教師付き深層グラフクラスタリング手法を提案する。
オートエンコーダとグラフオートエンコーダに基づいて,グローバルビューとローカルビューの両方から属性レベルと構造レベルの関係情報を抽出する。
この実験は,R$2$FGCが最先端のベースラインよりも優れていることを示すために,広く使用されているベンチマークデータセット上で実施されている。
論文 参考訳(メタデータ) (2023-09-09T06:18:50Z) - FairGen: Towards Fair Graph Generation [76.34239875010381]
フェアネスを考慮したグラフ生成モデルFairGenを提案する。
我々のモデルはラベルインフォームドグラフ生成モジュールと公正表現学習モジュールを共同で訓練する。
Webベースのグラフを含む7つの実世界のデータセットの実験結果は、FairGenが最先端のグラフ生成モデルと同等のパフォーマンスを得ることを示した。
論文 参考訳(メタデータ) (2023-03-30T23:30:42Z) - USER: Unsupervised Structural Entropy-based Robust Graph Neural Network [22.322867182077182]
教師なしグラフニューラルネットワーク(GNN)は、入力グラフデータの固有のランダム性に対して脆弱である。
構造エントロピーに基づくグラフニューラルネットワークの教師なしロバストバージョンであるUSERを提案する。
ランダムノイズ下でのクラスタリングとリンク予測タスク、および3つのデータセットに対するメタアタックの実験は、USERのベンチマークより優れていることを示している。
論文 参考訳(メタデータ) (2023-02-12T10:32:12Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。