論文の概要: FairMod: Fair Link Prediction and Recommendation via Graph Modification
- arxiv url: http://arxiv.org/abs/2201.11596v1
- Date: Thu, 27 Jan 2022 15:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 14:59:47.175338
- Title: FairMod: Fair Link Prediction and Recommendation via Graph Modification
- Title(参考訳): FairMod: グラフ修正によるリンク予測と推奨
- Authors: Sean Current, Yuntian He, Saket Gurukar, Srinivasan Parthasarathy
- Abstract要約: 入力グラフの変更によりGNNが学習したバイアスを軽減するためにFairModを提案する。
提案するモデルでは,GNNのトレーニング中にGNNの微視的あるいはマクロ的な編集を行い,リンクレコメンデーションのコンテキスト下で正確かつ公平なノード埋め込みを学習する。
提案手法の有効性を実世界の4つのデータセットに示すとともに,予測精度のリンクを無視できるコストで,提案するフェアネスをいくつかの要因で改善できることを示す。
- 参考スコア(独自算出の注目度): 7.239011273682701
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning becomes more widely adopted across domains, it is
critical that researchers and ML engineers think about the inherent biases in
the data that may be perpetuated by the model. Recently, many studies have
shown that such biases are also imbibed in Graph Neural Network (GNN) models if
the input graph is biased. In this work, we aim to mitigate the bias learned by
GNNs through modifying the input graph. To that end, we propose FairMod, a Fair
Graph Modification methodology with three formulations: the Global Fairness
Optimization (GFO), Community Fairness Optimization (CFO), and Fair Edge
Weighting (FEW) models. Our proposed models perform either microscopic or
macroscopic edits to the input graph while training GNNs and learn node
embeddings that are both accurate and fair under the context of link
recommendations. We demonstrate the effectiveness of our approach on four real
world datasets and show that we can improve the recommendation fairness by
several factors at negligible cost to link prediction accuracy.
- Abstract(参考訳): 機械学習がドメインにまたがって広く採用されるようになるにつれて、研究者やMLエンジニアは、モデルによって永続される可能性のあるデータ固有のバイアスについて考えることが重要である。
近年,入力グラフにバイアスがある場合,グラフニューラルネットワーク(GNN)モデルにもそのようなバイアスが組み込まれていることが多くの研究で示されている。
本研究では,GNNが学習したバイアスを,入力グラフの変更によって緩和することを目的とする。
そこで本研究では,グローバルフェアネス最適化(gfo),コミュニティフェアネス最適化(cfo),フェアエッジ重みモデル(few)の3つの定式化を持つ,公正グラフ修正手法であるfairmodを提案する。
提案するモデルでは,GNNのトレーニング中にGNNの微視的あるいはマクロ的な編集を行い,リンクレコメンデーションのコンテキスト下で正確かつ公平なノード埋め込みを学習する。
提案手法の有効性を実世界の4つのデータセットに示すとともに,予測精度をリンクするために,いくつかの要因で推奨公正性を向上できることを示す。
関連論文リスト
- FairSample: Training Fair and Accurate Graph Convolutional Neural
Networks Efficiently [29.457338893912656]
センシティブなグループに対する社会的バイアスは多くの実世界のグラフに存在するかもしれない。
本稿では,グラフ構造バイアス,ノード属性バイアス,モデルパラメータがGCNの人口動態にどのように影響するかを詳細に分析する。
私たちの洞察は、3種類のバイアスを緩和するフレームワークであるFairSampleにつながります。
論文 参考訳(メタデータ) (2024-01-26T08:17:12Z) - GOODAT: Towards Test-time Graph Out-of-Distribution Detection [103.40396427724667]
グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
論文 参考訳(メタデータ) (2024-01-10T08:37:39Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Equipping Federated Graph Neural Networks with Structure-aware Group Fairness [9.60194163484604]
グラフニューラルネットワーク(GNN)は、様々な種類のグラフデータ処理や分析タスクに広く利用されている。
textF2$GNNはFair Federated Graph Neural Networkであり、フェデレートされたGNNのグループフェアネスを高める。
論文 参考訳(メタデータ) (2023-10-18T21:51:42Z) - Towards Fair Graph Neural Networks via Graph Counterfactual [38.721295940809135]
グラフニューラルネットワーク(GNN)は、グラフ上での表現(GNN)学習の優れた能力を示し、さまざまなタスクを容易にしている。
最近の研究によると、GNNはトレーニングデータからのバイアスを継承し、増幅する傾向にあり、高いシナリオでGNNが採用されることが懸念されている。
本研究では,非現実的な反事実を避けるために,非現実的な反事実をトレーニングデータから選択できる新しいフレームワークCAFを提案する。
論文 参考訳(メタデータ) (2023-07-10T23:28:03Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - Interpreting Unfairness in Graph Neural Networks via Training Node
Attribution [46.384034587689136]
本稿では,GNNの不公平さを学習ノードの影響によって解釈する新たな問題について検討する。
具体的には,GNNに現れるバイアスを測定するために,確率分布分散(PDD)という新しい手法を提案する。
PDDの有効性と実世界のデータセットを用いた実験による影響評価の有効性を検証する。
論文 参考訳(メタデータ) (2022-11-25T21:52:30Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - EDITS: Modeling and Mitigating Data Bias for Graph Neural Networks [29.974829042502375]
本研究では,属性ネットワークのバイアスを軽減するためのフレームワーク EDITS を開発した。
EDITSはモデルに依存しない方法で動作し、ダウンストリームタスクに適用される特定のGNNとは独立している。
論文 参考訳(メタデータ) (2021-08-11T14:07:01Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。