論文の概要: Analyzing the Effect of Sampling in GNNs on Individual Fairness
- arxiv url: http://arxiv.org/abs/2209.03904v2
- Date: Fri, 9 Sep 2022 14:01:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 10:39:56.883247
- Title: Analyzing the Effect of Sampling in GNNs on Individual Fairness
- Title(参考訳): GNNにおけるサンプリングが個人の公正性に及ぼす影響の分析
- Authors: Rebecca Salganik, Fernando Diaz, Golnoosh Farnadi
- Abstract要約: グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
- 参考スコア(独自算出の注目度): 79.28449844690566
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Graph neural network (GNN) based methods have saturated the field of
recommender systems. The gains of these systems have been significant, showing
the advantages of interpreting data through a network structure. However,
despite the noticeable benefits of using graph structures in recommendation
tasks, this representational form has also bred new challenges which exacerbate
the complexity of mitigating algorithmic bias. When GNNs are integrated into
downstream tasks, such as recommendation, bias mitigation can become even more
difficult. Furthermore, the intractability of applying existing methods of
fairness promotion to large, real world datasets places even more serious
constraints on mitigation attempts. Our work sets out to fill in this gap by
taking an existing method for promoting individual fairness on graphs and
extending it to support mini-batch, or sub-sample based, training of a GNN,
thus laying the groundwork for applying this method to a downstream
recommendation task. We evaluate two popular GNN methods: Graph Convolutional
Network (GCN), which trains on the entire graph, and GraphSAGE, which uses
probabilistic random walks to create subgraphs for mini-batch training, and
assess the effects of sub-sampling on individual fairness. We implement an
individual fairness notion called \textit{REDRESS}, proposed by Dong et al.,
which uses rank optimization to learn individual fair node, or item,
embeddings. We empirically show on two real world datasets that GraphSAGE is
able to achieve, not just, comparable accuracy, but also, improved fairness as
compared with the GCN model. These finding have consequential ramifications to
individual fairness promotion, GNNs, and in downstream form, recommender
systems, showing that mini-batch training facilitate individual fairness
promotion by allowing for local nuance to guide the process of fairness
promotion in representation learning.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)ベースの手法はレコメンダシステムの分野を飽和させた。
これらのシステムの利点は重要であり、ネットワーク構造を通してデータを解釈する利点を示している。
しかしながら、レコメンデーションタスクでグラフ構造を用いることの顕著な利点にもかかわらず、この表現形式はアルゴリズムバイアスを緩和する複雑さを悪化させる新しい課題も生み出している。
GNNがリコメンデーションなどの下流タスクに統合されると、バイアス軽減はさらに難しくなります。
さらに、既存の公正化促進手法を大規模で実世界のデータセットに適用することの難しさは、緩和の試みにさらに深刻な制約を課す。
このギャップを埋めるために,グラフ上で個別の公平性を推進し,それをミニバッチ(サブサンプルベース)でGNNのトレーニングをサポートするように拡張することで,下流レコメンデーションタスクにこの手法を適用するための土台を構築した。
グラフ全体をトレーニングするグラフ畳み込みネットワーク(GCN)と、確率的ランダムウォークを用いてミニバッチトレーニング用のサブグラフを作成し、サブサンプリングが個々のフェアネスに与える影響を評価するグラフSAGEという2つの一般的なGNN手法を評価した。
dongらによって提案された \textit{redress} と呼ばれる個々のフェアネス概念を実装し、ランク最適化を用いて個々のフェアノードやアイテムの埋め込みを学習する。
我々は2つの実世界のデータセットについて、graphsageが同等の正確性だけでなく、gcnモデルと比較して公正性も向上できることを実証的に示した。
これらの発見は、個別のフェアネス促進、GNN、下流形態のレコメンデーションシステムに対して、局所的なニュアンスが表現学習におけるフェアネス促進のプロセスを導くことによって、個別のフェアネス促進を促進することを示す。
関連論文リスト
- GraphLoRA: Structure-Aware Contrastive Low-Rank Adaptation for Cross-Graph Transfer Learning [17.85404473268992]
グラフニューラルネットワーク(GNN)は、様々なグラフ解析タスクを扱うのに顕著な習熟度を示した。
汎用性にもかかわらず、GNNはトランスファービリティにおいて重大な課題に直面し、現実のアプリケーションでの利用を制限している。
グラフ領域によく訓練されたGNNを転送するための有効かつパラメータ効率のよいGraphLoRAを提案する。
論文 参考訳(メタデータ) (2024-09-25T06:57:42Z) - FairSample: Training Fair and Accurate Graph Convolutional Neural
Networks Efficiently [29.457338893912656]
センシティブなグループに対する社会的バイアスは多くの実世界のグラフに存在するかもしれない。
本稿では,グラフ構造バイアス,ノード属性バイアス,モデルパラメータがGCNの人口動態にどのように影響するかを詳細に分析する。
私たちの洞察は、3種類のバイアスを緩和するフレームワークであるFairSampleにつながります。
論文 参考訳(メタデータ) (2024-01-26T08:17:12Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - GFairHint: Improving Individual Fairness for Graph Neural Networks via
Fairness Hint [15.828830496326885]
グラフニューラルネットワーク(GNN)のアルゴリズムフェアネスは注目されている。
本稿では,GNNにおける個々人の公平性を促進する新しい手法GFairHintを提案する。
GFairHintは、データセットとさまざまなバックボーンモデルの組み合わせで、最も公正な結果を達成する。
論文 参考訳(メタデータ) (2023-05-25T00:03:22Z) - FairNorm: Fair and Fast Graph Neural Network Training [9.492903649862761]
グラフニューラルネットワーク(GNN)は、多くのグラフベースの学習タスクの最先端を実現するために実証されている。
GNNは、訓練データ内のバイアスを継承し、さらに増幅し、特定のセンシティブなグループに対して不公平な結果をもたらす可能性があることが示されている。
この研究は、GNNベースの学習におけるバイアスを低減する統一正規化フレームワークであるFairNormを提案する。
論文 参考訳(メタデータ) (2022-05-20T06:10:27Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - An Adaptive Graph Pre-training Framework for Localized Collaborative
Filtering [79.17319280791237]
局所的協調フィルタリング(ADAPT)のための適応グラフ事前学習フレームワークを提案する。
ADAPTは、異なるグラフにまたがる共通知識と、各グラフの特異性の両方をキャプチャする。
ユーザ/イテムの埋め込みを転送する必要はなく、異なるグラフにまたがる共通知識と各グラフのユニークさの両方をキャプチャできる。
論文 参考訳(メタデータ) (2021-12-14T06:53:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。