論文の概要: Ensuring User-side Fairness in Dynamic Recommender Systems
- arxiv url: http://arxiv.org/abs/2308.15651v2
- Date: Sun, 31 Mar 2024 04:20:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-02 15:44:31.022686
- Title: Ensuring User-side Fairness in Dynamic Recommender Systems
- Title(参考訳): 動的レコメンダシステムにおけるユーザ側の公正性の確保
- Authors: Hyunsik Yoo, Zhichen Zeng, Jian Kang, Ruizhong Qiu, David Zhou, Zhining Liu, Fei Wang, Charlie Xu, Eunice Chan, Hanghang Tong,
- Abstract要約: 本稿では,動的レコメンデーションシステムにおけるユーザ側の公正性を保証するための第一原理的な研究について述べる。
本稿では,FAir Dynamic rEcommender (FADE)を提案する。
FADEは、全体的なレコメンデーション性能を犠牲にすることなく、性能格差を効果的かつ効率的に低減することを示す。
- 参考スコア(独自算出の注目度): 37.20838165555877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User-side group fairness is crucial for modern recommender systems, aiming to alleviate performance disparities among user groups defined by sensitive attributes like gender, race, or age. In the ever-evolving landscape of user-item interactions, continual adaptation to newly collected data is crucial for recommender systems to stay aligned with the latest user preferences. However, we observe that such continual adaptation often exacerbates performance disparities. This necessitates a thorough investigation into user-side fairness in dynamic recommender systems, an area that has been unexplored in the literature. This problem is challenging due to distribution shifts, frequent model updates, and non-differentiability of ranking metrics. To our knowledge, this paper presents the first principled study on ensuring user-side fairness in dynamic recommender systems. We start with theoretical analyses on fine-tuning v.s. retraining, showing that the best practice is incremental fine-tuning with restart. Guided by our theoretical analyses, we propose FAir Dynamic rEcommender (FADE), an end-to-end fine-tuning framework to dynamically ensure user-side fairness over time. To overcome the non-differentiability of recommendation metrics in the fairness loss, we further introduce Differentiable Hit (DH) as an improvement over the recent NeuralNDCG method, not only alleviating its gradient vanishing issue but also achieving higher efficiency. Besides that, we also address the instability issue of the fairness loss by leveraging the competing nature between the recommendation loss and the fairness loss. Through extensive experiments on real-world datasets, we demonstrate that FADE effectively and efficiently reduces performance disparities with little sacrifice in the overall recommendation performance.
- Abstract(参考訳): ユーザ側のグループフェアネスは、性別、人種、年齢といったセンシティブな属性によって定義されたユーザグループ間のパフォーマンス格差を軽減することを目的として、現代のレコメンデーションシステムにとって不可欠である。
ユーザとイテムのインタラクションの絶え間なく進化している状況において、新しく収集されたデータへの継続的な適応は、レコメンダシステムにとって最新のユーザの好みに沿うことが不可欠である。
しかし,このような連続的な適応は性能格差を悪化させることが多い。
このことは、動的レコメンデーションシステムにおけるユーザ側の公正性の徹底的な調査を必要とする。
この問題は、分散シフト、頻繁なモデル更新、ランキングメトリクスの非微分性によって困難である。
本稿では,動的レコメンデーションシステムにおけるユーザ側の公平性を保証するための,最初の原則的研究について述べる。
まず、微調整v.s.再訓練に関する理論的分析から始め、再学習を伴う漸進的な微調整がベストプラクティスであることを示す。
本稿では,FAir Dynamic rEcommender (FADE)を提案する。
フェアネス損失におけるレコメンデーション指標の非微分性を克服するため,近年のNeuralNDCG法に比較して改良された微分ヒット(DH)を導入する。
さらに, フェアネス損失とリコメンデーション損失の競合特性を活用することで, フェアネス損失の不安定性問題にも対処する。
実世界のデータセットに関する広範な実験を通じて、FADEは全体のレコメンデーション性能を犠牲にすることなく、パフォーマンスの格差を効果的かつ効率的に低減することを示した。
関連論文リスト
- Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - Correcting for Popularity Bias in Recommender Systems via Item Loss Equalization [1.7771454131646311]
人気アイテムの小さなセットが、高い相互作用率のために推奨結果を支配している。
この現象は、ニッチな興味のある人を無視しながら、メインストリームの趣味を持つユーザーに不当に利益をもたらす。
本稿では,推薦モデルのトレーニングプロセスに介入することで,この問題に対処するプロセス内アプローチを提案する。
論文 参考訳(メタデータ) (2024-10-07T08:34:18Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Long-term Dynamics of Fairness Intervention in Connection Recommender
Systems [5.048563042541915]
本稿では,Webスケールのソーシャルネットワークが採用するシステムにパターン化されたコネクションレコメンデータシステムについて検討する。
全体としては公平に思われるが、共通露出とユーティリティパリティの介入は、長期的なバイアスの増幅を緩和することができない。
論文 参考訳(メタデータ) (2022-03-30T16:27:48Z) - CausPref: Causal Preference Learning for Out-of-Distribution
Recommendation [36.22965012642248]
現在のレコメンデータシステムは、現実的なシナリオにおけるユーザやアイテムの配布シフトに対して、依然として脆弱である。
本稿では,推奨特化DAG学習者を因果選好に基づく推薦フレームワークCausPrefに組み込むことを提案する。
当社のアプローチは、アウト・オブ・ディストリビューション・セッティングのタイプにおいて、ベンチマークモデルを大幅に上回っている。
論文 参考訳(メタデータ) (2022-02-08T16:42:03Z) - Context Uncertainty in Contextual Bandits with Applications to
Recommender Systems [16.597836265345634]
本稿では,リカレントサーベイネットワーク(REN)と呼ばれる新しいタイプのリカレントニューラルネットワークを提案する。
我々の理論的分析は,RENが学習表現に不確実性がある場合でも,速度-線形準最適後悔を保てることを示す。
我々の実証研究は、RENが合成および実世界のレコメンデーションデータセットに満足な長期報酬を得られることを示した。
論文 参考訳(メタデータ) (2022-02-01T23:23:50Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。