論文の概要: Fair Augmentation for Graph Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2408.12208v1
- Date: Thu, 22 Aug 2024 08:35:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-23 14:43:27.616441
- Title: Fair Augmentation for Graph Collaborative Filtering
- Title(参考訳): グラフ協調フィルタリングのための公正な拡張
- Authors: Ludovico Boratto, Francesco Fabbri, Gianni Fenu, Mirko Marras, Giacomo Medda,
- Abstract要約: 近年のレコメンデーションは,ユーザ-イットネットワークからユーザの好みを学習する上で,グラフニューラルネットワーク(GNN)の協調力を活用している。
自動システムの公正性に対処する新たな規制にもかかわらず、グラフ協調フィルタリングにおける不公平性問題は未解決のままである。
本報告は, グラフ協調フィルタリングにおける不公平性問題に焦点をあてた最近の研究に対して, 最新の緩和手法の1つを再現することによって, 確固たる対応を図ったものである。
- 参考スコア(独自算出の注目度): 16.277363252956114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent developments in recommendation have harnessed the collaborative power of graph neural networks (GNNs) in learning users' preferences from user-item networks. Despite emerging regulations addressing fairness of automated systems, unfairness issues in graph collaborative filtering remain underexplored, especially from the consumer's perspective. Despite numerous contributions on consumer unfairness, only a few of these works have delved into GNNs. A notable gap exists in the formalization of the latest mitigation algorithms, as well as in their effectiveness and reliability on cutting-edge models. This paper serves as a solid response to recent research highlighting unfairness issues in graph collaborative filtering by reproducing one of the latest mitigation methods. The reproduced technique adjusts the system fairness level by learning a fair graph augmentation. Under an experimental setup based on 11 GNNs, 5 non-GNN models, and 5 real-world networks across diverse domains, our investigation reveals that fair graph augmentation is consistently effective on high-utility models and large datasets. Experiments on the transferability of the fair augmented graph open new issues for future recommendation studies. Source code: https://github.com/jackmedda/FA4GCF.
- Abstract(参考訳): 近年のレコメンデーションは,ユーザ-イットネットワークからユーザの好みを学習する上で,グラフニューラルネットワーク(GNN)の協調力を活用している。
自動システムの公正性に対処する新たな規制にもかかわらず、グラフ協調フィルタリングにおける不公平性問題は、特に消費者の視点からは、未解明のままである。
消費者の不公平に対する多くの貢献にもかかわらず、これらの作品のいくつかだけがGNNに移行している。
最新の緩和アルゴリズムの形式化や、最先端モデルの有効性と信頼性に顕著なギャップがある。
本報告は, グラフ協調フィルタリングにおける不公平性問題に焦点をあてた最近の研究に対して, 最新の緩和手法の1つを再現することによって, 確固たる対応を図ったものである。
再現された手法は、公正グラフ拡張を学習することにより、システムフェアネスレベルを調整する。
11のGNNモデル,5つの非GNNモデル,および5つの異なる領域にわたる実世界のネットワークに基づく実験的な設定の下で,本研究では,グラフ拡張が高ユーティリティモデルと大規模データセットに対して一貫して有効であることを明らかにした。
公正グラフの転送可能性に関する実験は、今後の推奨研究に新たな課題を開放する。
ソースコード:https://github.com/jackmedda/FA4GCF。
関連論文リスト
- Fair Graph Neural Network with Supervised Contrastive Regularization [12.666235467177131]
公平性を考慮したグラフニューラルネットワーク(GNN)の学習モデルを提案する。
提案手法は, コントラスト損失と環境損失を統合し, 精度と公正性を両立させる。
論文 参考訳(メタデータ) (2024-04-09T07:49:05Z) - MAPPING: Debiasing Graph Neural Networks for Fair Node Classification
with Limited Sensitive Information Leakage [1.8238848494579714]
公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2024-01-23T14:59:46Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and Reproducibility-driven Analysis [50.972595036856035]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - Towards Fair Graph Neural Networks via Graph Counterfactual [38.721295940809135]
グラフニューラルネットワーク(GNN)は、グラフ上での表現(GNN)学習の優れた能力を示し、さまざまなタスクを容易にしている。
最近の研究によると、GNNはトレーニングデータからのバイアスを継承し、増幅する傾向にあり、高いシナリオでGNNが採用されることが懸念されている。
本研究では,非現実的な反事実を避けるために,非現実的な反事実をトレーニングデータから選択できる新しいフレームワークCAFを提案する。
論文 参考訳(メタデータ) (2023-07-10T23:28:03Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Improving Fairness in Graph Neural Networks via Mitigating Sensitive
Attribute Leakage [35.810534649478576]
グラフニューラルネットワーク(GNN)は、グラフ上のノード表現を学習する際の大きな力を示している。
GNNは、トレーニングデータから歴史的偏見を継承し、予測における差別的偏見をもたらす可能性がある。
本研究ではFairVGNN(Fair View Graph Neural Network)を提案する。
論文 参考訳(メタデータ) (2022-06-07T16:25:20Z) - An Empirical Study of Retrieval-enhanced Graph Neural Networks [48.99347386689936]
グラフニューラルネットワーク(GNN)は、グラフ表現学習に有効なツールである。
本稿では,グラフニューラルネットワークモデルの選択に非依存な GraphRETRIEVAL という検索強化方式を提案する。
我々は13のデータセットに対して包括的な実験を行い、GRAPHRETRIEVALが既存のGNNよりも大幅に改善されていることを観察した。
論文 参考訳(メタデータ) (2022-06-01T09:59:09Z) - FairMod: Fair Link Prediction and Recommendation via Graph Modification [7.239011273682701]
入力グラフの変更によりGNNが学習したバイアスを軽減するためにFairModを提案する。
提案するモデルでは,GNNのトレーニング中にGNNの微視的あるいはマクロ的な編集を行い,リンクレコメンデーションのコンテキスト下で正確かつ公平なノード埋め込みを学習する。
提案手法の有効性を実世界の4つのデータセットに示すとともに,予測精度のリンクを無視できるコストで,提案するフェアネスをいくつかの要因で改善できることを示す。
論文 参考訳(メタデータ) (2022-01-27T15:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。