論文の概要: No prejudice! Fair Federated Graph Neural Networks for Personalized
Recommendation
- arxiv url: http://arxiv.org/abs/2312.10080v2
- Date: Wed, 20 Dec 2023 12:01:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 18:37:00.393903
- Title: No prejudice! Fair Federated Graph Neural Networks for Personalized
Recommendation
- Title(参考訳): 偏見はない!
パーソナライズドレコメンデーションのためのフェアフェデレーショングラフニューラルネットワーク
- Authors: Nimesh Agrawal, Anuj Kumar Sirohi, Jayadeva, Sandeep Kumar
- Abstract要約: 本稿では,異なる人口集団を対象としたレコメンデーションシステム(Recommendation Systems, RS)における固有バイアスの広範的問題に対処する。
我々は、パーソナライズされたグラフニューラルネットワーク(GNN)のパワーと公平性を考慮した新しいフレームワークであるF2PGNNを提案する。
F2PGNNは、プライバシを保ち、実用性を維持する一方で、最先端技術と比較して、グループ不公平を47%~99%軽減していることを示す。
- 参考スコア(独自算出の注目度): 5.183572923833202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring fairness in Recommendation Systems (RSs) across demographic groups
is critical due to the increased integration of RSs in applications such as
personalized healthcare, finance, and e-commerce. Graph-based RSs play a
crucial role in capturing intricate higher-order interactions among entities.
However, integrating these graph models into the Federated Learning (FL)
paradigm with fairness constraints poses formidable challenges as this requires
access to the entire interaction graph and sensitive user information (such as
gender, age, etc.) at the central server. This paper addresses the pervasive
issue of inherent bias within RSs for different demographic groups without
compromising the privacy of sensitive user attributes in FL environment with
the graph-based model. To address the group bias, we propose F2PGNN (Fair
Federated Personalized Graph Neural Network), a novel framework that leverages
the power of Personalized Graph Neural Network (GNN) coupled with fairness
considerations. Additionally, we use differential privacy techniques to fortify
privacy protection. Experimental evaluation on three publicly available
datasets showcases the efficacy of F2PGNN in mitigating group unfairness by 47%
- 99% compared to the state-of-the-art while preserving privacy and maintaining
the utility. The results validate the significance of our framework in
achieving equitable and personalized recommendations using GNN within the FL
landscape.
- Abstract(参考訳): パーソナライズされたヘルスケア、ファイナンス、eコマースといったアプリケーションへのrssの統合が増加しているため、グループ間でのレコメンデーションシステム(rss)の公平性を確保することが重要だ。
グラフベースのrssは、エンティティ間の複雑な高次インタラクションをキャプチャする上で重要な役割を果たす。
しかしながら、これらのグラフモデルを公正性制約を伴うフェデレートラーニング(FL)パラダイムに統合することは、インタラクショングラフ全体へのアクセスとセンシティブなユーザ情報(性別、年齢など)を中央サーバで必要とするため、重大な課題を引き起こす。
本稿では,グラフベースモデルを用いたfl環境における機密ユーザ属性のプライバシを損なうことなく,rss内固有のバイアスの広範にわたる問題に対処する。
グループバイアスに対処するため,F2PGNN(Fair Federated Personalized Graph Neural Network)を提案する。
さらに、プライバシー保護の強化に差分プライバシー技術を使用します。
3つの公開データセットに対する実験的評価では、プライバシを保ち、有効性を維持する一方で、最先端技術と比較して、グループ不公平を緩和するF2PGNNの有効性が47%から99%向上している。
結果は,flランドスケープにおけるgnnを用いた公平かつパーソナライズされたレコメンデーションの実現における,フレームワークの重要性を検証する。
関連論文リスト
- Towards Fair Graph Representation Learning in Social Networks [20.823461673845756]
本稿では, 十分性, 自立性, 分離性という3つの原則に基づいて, 公正表現学習の制約を導入する。
EAGNN法がグループフェアネスを効果的に達成できることを理論的に実証する。
論文 参考訳(メタデータ) (2024-10-15T10:57:02Z) - GRAPHGINI: Fostering Individual and Group Fairness in Graph Neural
Networks [17.539327573240488]
本稿では,GNNフレームワーク内で用いられる公平性の尺度として,Gini係数を組み込む手法を初めて紹介する。
我々の提案であるGRAPHGINIは、単一システムにおける個人とグループフェアネスの2つの異なる目標に対処する。
論文 参考訳(メタデータ) (2024-02-20T11:38:52Z) - FairSample: Training Fair and Accurate Graph Convolutional Neural
Networks Efficiently [29.457338893912656]
センシティブなグループに対する社会的バイアスは多くの実世界のグラフに存在するかもしれない。
本稿では,グラフ構造バイアス,ノード属性バイアス,モデルパラメータがGCNの人口動態にどのように影響するかを詳細に分析する。
私たちの洞察は、3種類のバイアスを緩和するフレームワークであるFairSampleにつながります。
論文 参考訳(メタデータ) (2024-01-26T08:17:12Z) - MAPPING: Debiasing Graph Neural Networks for Fair Node Classification with Limited Sensitive Information Leakage [1.5438758943381854]
公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2024-01-23T14:59:46Z) - FedRKG: A Privacy-preserving Federated Recommendation Framework via
Knowledge Graph Enhancement [20.214339212091012]
フェデレートラーニング(FL)は、リコメンデーションシステムでデータプライバシをローカルにトレーニングする上で有望なアプローチとして登場した。
最近のグラフニューラルネットワーク(GNN)は、ユーザとアイテム間の高次インタラクションをキャプチャできるため、リコメンデーションタスクで人気を集めている。
本稿では,グローバル知識グラフ(KG)を構築・維持する新しいフェデレーションレコメンデーションシステムであるFedRKGを提案する。
論文 参考訳(メタデータ) (2024-01-20T02:38:21Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Privacy-preserving design of graph neural networks with applications to
vertical federated learning [56.74455367682945]
VESPERと呼ばれるエンドツーエンドのグラフ表現学習フレームワークを提案する。
VESPERは、適切なプライバシー予算の下でスパースグラフと密度グラフの両方で高性能なGNNモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-10-31T15:34:59Z) - Unraveling Privacy Risks of Individual Fairness in Graph Neural Networks [66.0143583366533]
グラフニューラルネットワーク(GNN)は、その拡張現実の応用により、大きな注目を集めている。
信頼できるGNNを構築するためには、公平性とプライバシという2つの側面が重要な考慮事項として浮上している。
これまでの研究では、GNNの公平性とプライバシの側面を別々に検討し、GNNのパフォーマンスとのトレードオフを明らかにしている。
しかし、この2つの側面の相互作用は未解明のままである。
論文 参考訳(メタデータ) (2023-01-30T14:52:23Z) - Mitigating Relational Bias on Knowledge Graphs [51.346018842327865]
マルチホップバイアスを同時に緩和し,知識グラフにおけるエンティティとリレーションの近接情報を保存するフレームワークであるFair-KGNNを提案する。
ジェンダー占有とナショナリティ・サリーバイアスを軽減するために,2つの最先端KGNNモデル(RCCNとCompGCN)を組み込んだFair-KGNNの2例を開発した。
論文 参考訳(メタデータ) (2022-11-26T05:55:34Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Federated Social Recommendation with Graph Neural Network [69.36135187771929]
本稿では,ソーシャル情報とユーザ・イテムの相互作用を融合させることにより,ソーシャル・レコメンデーションの問題であるソーシャル・リコメンデーションの緩和を提案する。
我々は textbfGraph Neural Network (FeSoG) を用いた textbfFedrated textbfSocial 推薦フレームワークを考案した。
論文 参考訳(メタデータ) (2021-11-21T09:41:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。