論文の概要: Ensuring User-side Fairness in Dynamic Recommender Systems
- arxiv url: http://arxiv.org/abs/2308.15651v1
- Date: Tue, 29 Aug 2023 22:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 15:25:09.122943
- Title: Ensuring User-side Fairness in Dynamic Recommender Systems
- Title(参考訳): 動的レコメンダシステムにおけるユーザ側の公平性確保
- Authors: Hyunsik Yoo, Zhichen Zeng, Jian Kang, Zhining Liu, David Zhou, Fei
Wang, Eunice Chan, and Hanghang Tong
- Abstract要約: 性能格差を動的に緩和する微調整戦略を備えたエンドツーエンドフレームワークを提案する。
FAir Dynamic rEcommender (FADE) は、微分可能で軽量に設計された新しいフェアネス損失を使用する。
実世界のデータセットに関する広範な実験により、FADEが性能格差を効果的かつ効率的に低減することを実証的に実証した。
- 参考スコア(独自算出の注目度): 37.95634430455911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User-side group fairness is crucial for modern recommender systems, as it
aims to alleviate performance disparity between groups of users defined by
sensitive attributes such as gender, race, or age. We find that the disparity
tends to persist or even increase over time. This calls for effective ways to
address user-side fairness in a dynamic environment, which has been
infrequently explored in the literature. However, fairness-constrained
re-ranking, a typical method to ensure user-side fairness (i.e., reducing
performance disparity), faces two fundamental challenges in the dynamic
setting: (1) non-differentiability of the ranking-based fairness constraint,
which hinders the end-to-end training paradigm, and (2) time-inefficiency,
which impedes quick adaptation to changes in user preferences. In this paper,
we propose FAir Dynamic rEcommender (FADE), an end-to-end framework with
fine-tuning strategy to dynamically alleviate performance disparity. To tackle
the above challenges, FADE uses a novel fairness loss designed to be
differentiable and lightweight to fine-tune model parameters to ensure both
user-side fairness and high-quality recommendations. Via extensive experiments
on the real-world dataset, we empirically demonstrate that FADE effectively and
efficiently reduces performance disparity, and furthermore, FADE improves
overall recommendation quality over time compared to not using any new data.
- Abstract(参考訳): ユーザ側のグループフェアネスは、性別、人種、年齢などのセンシティブな属性によって定義されたユーザのグループ間のパフォーマンス格差を軽減することを目的としている。
格差が持続する傾向や、時間とともに増加する傾向があります。
これにより、動的環境におけるユーザ側の公平性に対処する効果的な方法が求められます。
しかし、ユーザ側の公平性を保証する典型的な方法であるフェアネス制約再ランク付けは、動的設定における2つの基本的な課題に直面している:(1)エンド・ツー・エンドのトレーニングパラダイムを妨げるランキングベースのフェアネス制約の非微分性、(2)ユーザの好みの変化への迅速な適応を妨げる時間非効率。
本稿では,パフォーマンスのばらつきを動的に緩和するための微調整戦略を備えたエンドツーエンドフレームワークであるfair dynamic recommender (fade)を提案する。
上記の課題に取り組むために、faeは、ユーザー側の公平性と高品質なレコメンデーションの両方を保証するために、差別化可能で軽量なモデルパラメータに設計された新しいフェアネス損失を使用する。
実世界のデータセットに関する広範な実験により、FADEは性能格差を効果的に効果的に低減し、さらにFADEは新しいデータを使用しないよりも全体的なレコメンデーション品質を改善することを実証的に実証した。
関連論文リスト
- Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - Correcting for Popularity Bias in Recommender Systems via Item Loss Equalization [1.7771454131646311]
人気アイテムの小さなセットが、高い相互作用率のために推奨結果を支配している。
この現象は、ニッチな興味のある人を無視しながら、メインストリームの趣味を持つユーザーに不当に利益をもたらす。
本稿では,推薦モデルのトレーニングプロセスに介入することで,この問題に対処するプロセス内アプローチを提案する。
論文 参考訳(メタデータ) (2024-10-07T08:34:18Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Long-term Dynamics of Fairness Intervention in Connection Recommender
Systems [5.048563042541915]
本稿では,Webスケールのソーシャルネットワークが採用するシステムにパターン化されたコネクションレコメンデータシステムについて検討する。
全体としては公平に思われるが、共通露出とユーティリティパリティの介入は、長期的なバイアスの増幅を緩和することができない。
論文 参考訳(メタデータ) (2022-03-30T16:27:48Z) - CausPref: Causal Preference Learning for Out-of-Distribution
Recommendation [36.22965012642248]
現在のレコメンデータシステムは、現実的なシナリオにおけるユーザやアイテムの配布シフトに対して、依然として脆弱である。
本稿では,推奨特化DAG学習者を因果選好に基づく推薦フレームワークCausPrefに組み込むことを提案する。
当社のアプローチは、アウト・オブ・ディストリビューション・セッティングのタイプにおいて、ベンチマークモデルを大幅に上回っている。
論文 参考訳(メタデータ) (2022-02-08T16:42:03Z) - Context Uncertainty in Contextual Bandits with Applications to
Recommender Systems [16.597836265345634]
本稿では,リカレントサーベイネットワーク(REN)と呼ばれる新しいタイプのリカレントニューラルネットワークを提案する。
我々の理論的分析は,RENが学習表現に不確実性がある場合でも,速度-線形準最適後悔を保てることを示す。
我々の実証研究は、RENが合成および実世界のレコメンデーションデータセットに満足な長期報酬を得られることを示した。
論文 参考訳(メタデータ) (2022-02-01T23:23:50Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。