論文の概要: Ensuring User-side Fairness in Dynamic Recommender Systems
- arxiv url: http://arxiv.org/abs/2308.15651v2
- Date: Sun, 31 Mar 2024 04:20:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-02 15:44:31.022686
- Title: Ensuring User-side Fairness in Dynamic Recommender Systems
- Title(参考訳): 動的レコメンダシステムにおけるユーザ側の公正性の確保
- Authors: Hyunsik Yoo, Zhichen Zeng, Jian Kang, Ruizhong Qiu, David Zhou, Zhining Liu, Fei Wang, Charlie Xu, Eunice Chan, Hanghang Tong,
- Abstract要約: 本稿では,動的レコメンデーションシステムにおけるユーザ側の公正性を保証するための第一原理的な研究について述べる。
本稿では,FAir Dynamic rEcommender (FADE)を提案する。
FADEは、全体的なレコメンデーション性能を犠牲にすることなく、性能格差を効果的かつ効率的に低減することを示す。
- 参考スコア(独自算出の注目度): 37.20838165555877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User-side group fairness is crucial for modern recommender systems, aiming to alleviate performance disparities among user groups defined by sensitive attributes like gender, race, or age. In the ever-evolving landscape of user-item interactions, continual adaptation to newly collected data is crucial for recommender systems to stay aligned with the latest user preferences. However, we observe that such continual adaptation often exacerbates performance disparities. This necessitates a thorough investigation into user-side fairness in dynamic recommender systems, an area that has been unexplored in the literature. This problem is challenging due to distribution shifts, frequent model updates, and non-differentiability of ranking metrics. To our knowledge, this paper presents the first principled study on ensuring user-side fairness in dynamic recommender systems. We start with theoretical analyses on fine-tuning v.s. retraining, showing that the best practice is incremental fine-tuning with restart. Guided by our theoretical analyses, we propose FAir Dynamic rEcommender (FADE), an end-to-end fine-tuning framework to dynamically ensure user-side fairness over time. To overcome the non-differentiability of recommendation metrics in the fairness loss, we further introduce Differentiable Hit (DH) as an improvement over the recent NeuralNDCG method, not only alleviating its gradient vanishing issue but also achieving higher efficiency. Besides that, we also address the instability issue of the fairness loss by leveraging the competing nature between the recommendation loss and the fairness loss. Through extensive experiments on real-world datasets, we demonstrate that FADE effectively and efficiently reduces performance disparities with little sacrifice in the overall recommendation performance.
- Abstract(参考訳): ユーザ側のグループフェアネスは、性別、人種、年齢といったセンシティブな属性によって定義されたユーザグループ間のパフォーマンス格差を軽減することを目的として、現代のレコメンデーションシステムにとって不可欠である。
ユーザとイテムのインタラクションの絶え間なく進化している状況において、新しく収集されたデータへの継続的な適応は、レコメンダシステムにとって最新のユーザの好みに沿うことが不可欠である。
しかし,このような連続的な適応は性能格差を悪化させることが多い。
このことは、動的レコメンデーションシステムにおけるユーザ側の公正性の徹底的な調査を必要とする。
この問題は、分散シフト、頻繁なモデル更新、ランキングメトリクスの非微分性によって困難である。
本稿では,動的レコメンデーションシステムにおけるユーザ側の公平性を保証するための,最初の原則的研究について述べる。
まず、微調整v.s.再訓練に関する理論的分析から始め、再学習を伴う漸進的な微調整がベストプラクティスであることを示す。
本稿では,FAir Dynamic rEcommender (FADE)を提案する。
フェアネス損失におけるレコメンデーション指標の非微分性を克服するため,近年のNeuralNDCG法に比較して改良された微分ヒット(DH)を導入する。
さらに, フェアネス損失とリコメンデーション損失の競合特性を活用することで, フェアネス損失の不安定性問題にも対処する。
実世界のデータセットに関する広範な実験を通じて、FADEは全体のレコメンデーション性能を犠牲にすることなく、パフォーマンスの格差を効果的かつ効率的に低減することを示した。
関連論文リスト
- Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - FedGRec: Federated Graph Recommender System with Lazy Update of Latent
Embeddings [108.77460689459247]
プライバシー問題を軽減するためのフェデレートグラフレコメンダシステム(FedGRec)を提案する。
本システムでは,ユーザとサーバは,ユーザとアイテムに対する遅延埋め込みを明示的に記憶する。
我々は,遅延埋め込みを相互作用グラフの欠落のプロキシとして用いることの有効性を検証するために,広範な実験的な評価を行った。
論文 参考訳(メタデータ) (2022-10-25T01:08:20Z) - Experiments on Generalizability of User-Oriented Fairness in Recommender
Systems [2.0932879442844476]
公正を意識した推薦システムは、異なるユーザーグループを同様に扱うことを目的としている。
本稿では,ユーザ中心の公平度を再評価するフレームワークを提案する。
我々は、ユーザ(NDCGなど)とアイテム(新規性、アイテムフェアネスなど)の両方から、フレームワークの再ランク付けによる最終的なレコメンデーションを評価する。
論文 参考訳(メタデータ) (2022-05-17T12:36:30Z) - Long-term Dynamics of Fairness Intervention in Connection Recommender
Systems [5.048563042541915]
本稿では,Webスケールのソーシャルネットワークが採用するシステムにパターン化されたコネクションレコメンデータシステムについて検討する。
全体としては公平に思われるが、共通露出とユーティリティパリティの介入は、長期的なバイアスの増幅を緩和することができない。
論文 参考訳(メタデータ) (2022-03-30T16:27:48Z) - SURF: Semi-supervised Reward Learning with Data Augmentation for
Feedback-efficient Preference-based Reinforcement Learning [168.89470249446023]
我々は、大量のラベルなしサンプルとデータ拡張を利用する半教師付き報酬学習フレームワークSURFを提案する。
報奨学習にラベルのないサンプルを活用するために,選好予測器の信頼性に基づいてラベルのないサンプルの擬似ラベルを推定する。
本実験は, ロボット操作作業における嗜好に基づく手法のフィードバック効率を有意に向上させることを実証した。
論文 参考訳(メタデータ) (2022-03-18T16:50:38Z) - CausPref: Causal Preference Learning for Out-of-Distribution
Recommendation [36.22965012642248]
現在のレコメンデータシステムは、現実的なシナリオにおけるユーザやアイテムの配布シフトに対して、依然として脆弱である。
本稿では,推奨特化DAG学習者を因果選好に基づく推薦フレームワークCausPrefに組み込むことを提案する。
当社のアプローチは、アウト・オブ・ディストリビューション・セッティングのタイプにおいて、ベンチマークモデルを大幅に上回っている。
論文 参考訳(メタデータ) (2022-02-08T16:42:03Z) - Context Uncertainty in Contextual Bandits with Applications to
Recommender Systems [16.597836265345634]
本稿では,リカレントサーベイネットワーク(REN)と呼ばれる新しいタイプのリカレントニューラルネットワークを提案する。
我々の理論的分析は,RENが学習表現に不確実性がある場合でも,速度-線形準最適後悔を保てることを示す。
我々の実証研究は、RENが合成および実世界のレコメンデーションデータセットに満足な長期報酬を得られることを示した。
論文 参考訳(メタデータ) (2022-02-01T23:23:50Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - User-oriented Fairness in Recommendation [21.651482297198687]
我々は,レコメンダシステムにおける不公平性問題に対して,ユーザの視点から対処する。
ユーザの行動レベルに応じて、有利で不利なグループにグループ化します。
提案手法は,レコメンデーションシステムにおけるユーザのグループ公平性を向上するだけでなく,全体的なレコメンデーション性能も向上する。
論文 参考訳(メタデータ) (2021-04-21T17:50:31Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。