論文の概要: Drop Edges and Adapt: a Fairness Enforcing Fine-tuning for Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2302.11479v1
- Date: Wed, 22 Feb 2023 16:28:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 14:36:39.413656
- Title: Drop Edges and Adapt: a Fairness Enforcing Fine-tuning for Graph Neural
Networks
- Title(参考訳): ドロップエッジと適応:グラフニューラルネットワークの微調整を施した公正性
- Authors: Indro Spinelli, Riccardo Bianchini, Simone Scardapane
- Abstract要約: リンク予測アルゴリズムは、特定の人口集団の個人間のリンクを嫌う傾向がある。
本稿では,グラフニューラルネットワークに対して,微調整戦略を用いて公平性を強制する新しい手法を提案する。
DEAの新たな特徴の1つは、微調整に離散的だが学習可能な隣接行列を使うことができることである。
- 参考スコア(独自算出の注目度): 9.362130313618797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of graph representation learning as the primary solution for many
different network science tasks led to a surge of interest in the fairness of
this family of methods. Link prediction, in particular, has a substantial
social impact. However, link prediction algorithms tend to increase the
segregation in social networks by disfavoring the links between individuals in
specific demographic groups. This paper proposes a novel way to enforce
fairness on graph neural networks with a fine-tuning strategy. We Drop the
unfair Edges and, simultaneously, we Adapt the model's parameters to those
modifications, DEA in short. We introduce two covariance-based constraints
designed explicitly for the link prediction task. We use these constraints to
guide the optimization process responsible for learning the new "fair"
adjacency matrix. One novelty of DEA is that we can use a discrete yet
learnable adjacency matrix in our fine-tuning. We demonstrate the effectiveness
of our approach on five real-world datasets and show that we can improve both
the accuracy and the fairness of the link prediction tasks. In addition, we
present an in-depth ablation study demonstrating that our training algorithm
for the adjacency matrix can be used to improve link prediction performances
during training. Finally, we compute the relevance of each component of our
framework to show that the combination of both the constraints and the training
of the adjacency matrix leads to optimal performances.
- Abstract(参考訳): 多くの異なるネットワークサイエンスタスクにおける主要なソリューションとしてのグラフ表現学習の台頭は、この一連の手法の公平性への関心の高まりをもたらした。
特にリンク予測は、社会に大きな影響を与える。
しかし、リンク予測アルゴリズムは、特定の人口集団における個人間のリンクを嫌うことにより、ソーシャルネットワークの分離を増加させる傾向にある。
本稿では,微調整戦略を用いたグラフニューラルネットワークの公平性を強化する新しい手法を提案する。
不公平なエッジをドロップし、同時にモデルのパラメータをそれらの修正に適応させます。
リンク予測タスク用に明示的に設計された2つの共分散に基づく制約を導入する。
これらの制約を利用して,新たな"フェア"隣接行列の学習に責任を持つ最適化プロセスを導出する。
DEAの新たな特徴の1つは、微調整に離散的だが学習可能な隣接行列を使うことができることである。
5つの実世界のデータセットに対するアプローチの有効性を実証し、リンク予測タスクの正確性と公平性の両方を改善できることを示す。
また,本研究は,学習中のリンク予測性能を向上させるために,隣接行列の学習アルゴリズムを活用できることを実証する。
最後に、制約と隣接マトリックスのトレーニングの組み合わせが最適なパフォーマンスをもたらすことを示すために、フレームワークの各コンポーネントの関連性を計算します。
関連論文リスト
- Probabilistic Self-supervised Learning via Scoring Rules Minimization [19.347097627898876]
本稿では,Scoring Rule Minimization (ProSMIN) を用いた確率論的自己教師型学習を提案する。
提案手法は,大規模データセットを用いた多種多様な実験において,自己教師付きベースラインを超える精度とキャリブレーションを実現する。
論文 参考訳(メタデータ) (2023-09-05T08:48:25Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Fair Node Representation Learning via Adaptive Data Augmentation [9.492903649862761]
この研究は、グラフニューラルネットワーク(GNN)を用いて得られるノード表現のバイアス源を理論的に説明する。
この分析に基づいて、本質的なバイアスを低減するために、公正に意識したデータ拡張フレームワークを開発した。
分析と提案手法は,様々なGNN学習機構の公平性を高めるために容易に利用できる。
論文 参考訳(メタデータ) (2022-01-21T05:49:15Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Fairness-Aware Node Representation Learning [9.850791193881651]
本研究は,グラフ強化設計によるグラフ対照的学習における公平性問題に対処する。
グラフ上の異なる公平性の概念を導入し、提案されたグラフ拡張のガイドラインとして機能する。
実ソーシャルネットワークにおける実験結果から,提案した拡張により,統計的平等と平等な機会の両面において公平性が向上することを示した。
論文 参考訳(メタデータ) (2021-06-09T21:12:14Z) - Biased Edge Dropout for Enhancing Fairness in Graph Representation
Learning [14.664485680918725]
本稿では,グラフ表現学習における公平性向上と相反するバイアスド・エッジ・ドロップアウトアルゴリズム(fairdrop)を提案する。
FairDropは、多くの既存のアルゴリズムに簡単に接続でき、効率的で適応可能で、他の公平性誘導ソリューションと組み合わせることができます。
提案手法は,すべてのモデルのフェアネスを小さく,あるいは無視可能な精度低下まで改善できることを実証する。
論文 参考訳(メタデータ) (2021-04-29T08:59:36Z) - GCN-ALP: Addressing Matching Collisions in Anchor Link Prediction [40.811988657941946]
問題のtextitanchorリンク予測は、ソーシャルネットワーク全体のユーザープロファイル、コンテンツ、ネットワーク構造上の共通の根拠とユーザーデータをリンクするために形式化されます。
マッチンググラフ上でのアンカーリンク予測を効率的に解く、ミニバッチ戦略によるグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-19T02:41:55Z) - Learning to Extrapolate Knowledge: Transductive Few-shot Out-of-Graph
Link Prediction [69.1473775184952]
数発のアウトオブグラフリンク予測という現実的な問題を導入する。
我々は,新しいメタ学習フレームワークによってこの問題に対処する。
我々は,知識グラフの補完と薬物と薬物の相互作用予測のために,複数のベンチマークデータセット上でモデルを検証した。
論文 参考訳(メタデータ) (2020-06-11T17:42:46Z) - Graph Ordering: Towards the Optimal by Learning [69.72656588714155]
グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
論文 参考訳(メタデータ) (2020-01-18T09:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。