論文の概要: Heterophily-Aware Fair Recommendation using Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2402.03365v1
- Date: Wed, 31 Jan 2024 11:03:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 15:26:11.169747
- Title: Heterophily-Aware Fair Recommendation using Graph Convolutional Networks
- Title(参考訳): グラフ畳み込みネットワークを用いたヘテロフィアウェアフェアレコメンデーション
- Authors: Nemat Gholinejad and Mostafa Haghir Chehreghani
- Abstract要約: HetroFairは、アイテムの側面の公正性を改善するための公正なGNNベースのレコメンデーションシステムである。
HetroFairは、ユーザの側で優れた精度を達成する。
- 参考スコア(独自算出の注目度): 1.19658449368018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, graph neural networks (GNNs) have become a popular tool to
improve the accuracy and performance of recommender systems. Modern recommender
systems are not only designed to serve the end users, but also to benefit other
participants, such as items and items providers. These participants may have
different or conflicting goals and interests, which raise the need for fairness
and popularity bias considerations. GNN-based recommendation methods also face
the challenges of unfairness and popularity bias and their normalization and
aggregation processes suffer from these challenges. In this paper, we propose a
fair GNN-based recommender system, called HetroFair, to improve items' side
fairness. HetroFair uses two separate components to generate fairness-aware
embeddings: i) fairness-aware attention which incorporates dot product in the
normalization process of GNNs, to decrease the effect of nodes' degrees, and
ii) heterophily feature weighting to assign distinct weights to different
features during the aggregation process. In order to evaluate the effectiveness
of HetroFair, we conduct extensive experiments over six real-world datasets.
Our experimental results reveal that HetroFair not only alleviates the
unfairness and popularity bias on the items' side, but also achieves superior
accuracy on the users' side. Our implementation is publicly available at
https://github.com/NematGH/HetroFair
- Abstract(参考訳): 近年,グラフニューラルネットワーク(GNN)は,レコメンデータシステムの精度と性能を向上させるツールとして人気が高まっている。
現代のレコメンダシステムは、エンドユーザにサービスを提供するだけでなく、アイテムやアイテムプロバイダなどの他の参加者に利益をもたらすように設計されている。
これらの参加者は異なる、あるいは矛盾する目標や関心を持ち、公平性や人気バイアスの考慮の必要性を高める。
GNNベースのレコメンデーション手法はまた、不公平さと人気バイアスの課題に直面し、それらの正規化と集約プロセスはこれらの課題に直面する。
本稿では,商品の側面の公平性を改善するために,HetroFairと呼ばれる公正なGNNベースのレコメンデーションシステムを提案する。
HetroFairは2つの別々のコンポーネントを使用してフェアネスを認識した埋め込みを生成する。
一 点積をGNNの正常化過程に取り入れ、ノードの等級の影響を減少させる公正対応注意
二 凝集過程において、異なる特徴に異なる重みを割り当てるヘテロフィリー特徴重み付け
HetroFairの有効性を評価するために、6つの実世界のデータセットに対して広範な実験を行う。
実験の結果,HetroFairはアイテム側の不公平さや人気バイアスを軽減するだけでなく,ユーザ側の精度も向上することがわかった。
私たちの実装はhttps://github.com/NematGH/HetroFairで公開されています。
関連論文リスト
- Fair Augmentation for Graph Collaborative Filtering [16.277363252956114]
近年のレコメンデーションは,ユーザ-イットネットワークからユーザの好みを学習する上で,グラフニューラルネットワーク(GNN)の協調力を活用している。
自動システムの公正性に対処する新たな規制にもかかわらず、グラフ協調フィルタリングにおける不公平性問題は未解決のままである。
本報告は, グラフ協調フィルタリングにおける不公平性問題に焦点をあてた最近の研究に対して, 最新の緩和手法の1つを再現することによって, 確固たる対応を図ったものである。
論文 参考訳(メタデータ) (2024-08-22T08:35:11Z) - Rethinking Fair Graph Neural Networks from Re-balancing [26.70771023446706]
単純な再分散手法は、既存の公正なGNN手法と容易に一致するか、追い越すことができる。
本稿では,グループバランスによるGNNの不公平さを軽減するために,再バランシングによるFairGB,Fair Graph Neural Networkを提案する。
論文 参考訳(メタデータ) (2024-07-16T11:39:27Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Better Fair than Sorry: Adversarial Missing Data Imputation for Fair GNNs [5.655251163654288]
我々は保護属性に対する公正なデータ計算モデルであるSorryよりも優れたフェアを提案する。
BFtSの鍵となる設計原理は、不定詞はフェアネスの最悪のシナリオを近似すべきである。
合成データセットと実データセットを用いた実験は、BFtSが既存のデータセットよりも精度の高い公平度xのトレードオフを達成できることをしばしば示している。
論文 参考訳(メタデータ) (2023-11-02T20:57:44Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - GFairHint: Improving Individual Fairness for Graph Neural Networks via Fairness Hint [28.70963753478329]
グラフニューラルネットワーク(GNN)のアルゴリズムフェアネスは注目されている。
本稿では,GNNにおける個々人の公平性を促進する新しい手法GFairHintを提案する。
GFairHintは、データセットとさまざまなバックボーンモデルの組み合わせで、最も公正な結果を達成する。
論文 参考訳(メタデータ) (2023-05-25T00:03:22Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - FedGRec: Federated Graph Recommender System with Lazy Update of Latent
Embeddings [108.77460689459247]
プライバシー問題を軽減するためのフェデレートグラフレコメンダシステム(FedGRec)を提案する。
本システムでは,ユーザとサーバは,ユーザとアイテムに対する遅延埋め込みを明示的に記憶する。
我々は,遅延埋め込みを相互作用グラフの欠落のプロキシとして用いることの有効性を検証するために,広範な実験的な評価を行った。
論文 参考訳(メタデータ) (2022-10-25T01:08:20Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - FairMod: Fair Link Prediction and Recommendation via Graph Modification [7.239011273682701]
入力グラフの変更によりGNNが学習したバイアスを軽減するためにFairModを提案する。
提案するモデルでは,GNNのトレーニング中にGNNの微視的あるいはマクロ的な編集を行い,リンクレコメンデーションのコンテキスト下で正確かつ公平なノード埋め込みを学習する。
提案手法の有効性を実世界の4つのデータセットに示すとともに,予測精度のリンクを無視できるコストで,提案するフェアネスをいくつかの要因で改善できることを示す。
論文 参考訳(メタデータ) (2022-01-27T15:49:33Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。