論文の概要: Ensuring User-side Fairness in Dynamic Recommender Systems
- arxiv url: http://arxiv.org/abs/2308.15651v1
- Date: Tue, 29 Aug 2023 22:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 15:25:09.122943
- Title: Ensuring User-side Fairness in Dynamic Recommender Systems
- Title(参考訳): 動的レコメンダシステムにおけるユーザ側の公平性確保
- Authors: Hyunsik Yoo, Zhichen Zeng, Jian Kang, Zhining Liu, David Zhou, Fei
Wang, Eunice Chan, and Hanghang Tong
- Abstract要約: 性能格差を動的に緩和する微調整戦略を備えたエンドツーエンドフレームワークを提案する。
FAir Dynamic rEcommender (FADE) は、微分可能で軽量に設計された新しいフェアネス損失を使用する。
実世界のデータセットに関する広範な実験により、FADEが性能格差を効果的かつ効率的に低減することを実証的に実証した。
- 参考スコア(独自算出の注目度): 37.95634430455911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User-side group fairness is crucial for modern recommender systems, as it
aims to alleviate performance disparity between groups of users defined by
sensitive attributes such as gender, race, or age. We find that the disparity
tends to persist or even increase over time. This calls for effective ways to
address user-side fairness in a dynamic environment, which has been
infrequently explored in the literature. However, fairness-constrained
re-ranking, a typical method to ensure user-side fairness (i.e., reducing
performance disparity), faces two fundamental challenges in the dynamic
setting: (1) non-differentiability of the ranking-based fairness constraint,
which hinders the end-to-end training paradigm, and (2) time-inefficiency,
which impedes quick adaptation to changes in user preferences. In this paper,
we propose FAir Dynamic rEcommender (FADE), an end-to-end framework with
fine-tuning strategy to dynamically alleviate performance disparity. To tackle
the above challenges, FADE uses a novel fairness loss designed to be
differentiable and lightweight to fine-tune model parameters to ensure both
user-side fairness and high-quality recommendations. Via extensive experiments
on the real-world dataset, we empirically demonstrate that FADE effectively and
efficiently reduces performance disparity, and furthermore, FADE improves
overall recommendation quality over time compared to not using any new data.
- Abstract(参考訳): ユーザ側のグループフェアネスは、性別、人種、年齢などのセンシティブな属性によって定義されたユーザのグループ間のパフォーマンス格差を軽減することを目的としている。
格差が持続する傾向や、時間とともに増加する傾向があります。
これにより、動的環境におけるユーザ側の公平性に対処する効果的な方法が求められます。
しかし、ユーザ側の公平性を保証する典型的な方法であるフェアネス制約再ランク付けは、動的設定における2つの基本的な課題に直面している:(1)エンド・ツー・エンドのトレーニングパラダイムを妨げるランキングベースのフェアネス制約の非微分性、(2)ユーザの好みの変化への迅速な適応を妨げる時間非効率。
本稿では,パフォーマンスのばらつきを動的に緩和するための微調整戦略を備えたエンドツーエンドフレームワークであるfair dynamic recommender (fade)を提案する。
上記の課題に取り組むために、faeは、ユーザー側の公平性と高品質なレコメンデーションの両方を保証するために、差別化可能で軽量なモデルパラメータに設計された新しいフェアネス損失を使用する。
実世界のデータセットに関する広範な実験により、FADEは性能格差を効果的に効果的に低減し、さらにFADEは新しいデータを使用しないよりも全体的なレコメンデーション品質を改善することを実証的に実証した。
関連論文リスト
- Towards Fairness-Aware Adversarial Learning [14.947647219053037]
フェアネス・アウェア・アドバーサリアル・ラーニング(FAAL)という新しい学習パラダイムを提案する。
提案手法は,異なるカテゴリ間で最悪の分布を求めることを目的としており,高い確率で上界性能が得られることを保証している。
特にFAALは、不公平なロバストモデルを2つのエポックで公平に調整できるが、全体的なクリーンで堅牢なアキュラシーを損なうことはない。
論文 参考訳(メタデータ) (2024-02-27T18:01:59Z) - Dynamic Environment Responsive Online Meta-Learning with Fairness
Awareness [30.44174123736964]
本稿では,FairSAOMLと呼ばれる,適応フェアネスを考慮したオンラインメタ学習アルゴリズムを提案する。
動的環境下での様々な実世界のデータセットに対する実験評価により,提案アルゴリズムが一貫した代替手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-19T17:44:35Z) - EFFL: Egalitarian Fairness in Federated Learning for Mitigating Matthew
Effect [11.24699174877316]
マシュー効果を緩和するために,平等フェアネスフェデレートラーニング(EFFL)を提案する。
EFFLはパフォーマンスの最適性を目指しており、各クライアントに対する経験的リスク損失とバイアスを最小限にしている。
EFFLは、高性能なグローバルモデルを実現する上で、他の最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-28T10:51:12Z) - In-processing User Constrained Dominant Sets for User-Oriented Fairness
in Recommender Systems [23.48974802023629]
In-processing User Constrained Dominant Sets (In-UCDS) framework to achieve user-oriented fairness。
In-UCDSは最先端の手法よりも優れており、全体的なレコメンデーション性能が向上したより公平なモデルとなっている。
論文 参考訳(メタデータ) (2023-09-04T03:34:54Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。