論文の概要: Regret-aware Re-ranking for Guaranteeing Two-sided Fairness and Accuracy in Recommender Systems
- arxiv url: http://arxiv.org/abs/2504.14550v1
- Date: Sun, 20 Apr 2025 09:43:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 23:49:39.511733
- Title: Regret-aware Re-ranking for Guaranteeing Two-sided Fairness and Accuracy in Recommender Systems
- Title(参考訳): リコメンダシステムにおける二面公正度と精度の確保のためのレグレト・アウェア・リランク
- Authors: Xiaopeng Ye, Chen Xu, Jun Xu, Xuyang Xie, Gang Wang, Zhenhua Dong,
- Abstract要約: マルチステークホルダーのレコメンデーションシステムでは、ユーザとプロバイダは2つの重要かつ相互依存的な役割として機能する。
ユーザの正確性とプロバイダの公正性を確保しながら、個々の公正性を保証する方法は、未解決の問題のままである。
本手法では,ユーザの精度を高めつつ,個人の公正性を確保するためにバンクフェア+を提案する。
- 参考スコア(独自算出の注目度): 18.08572059176545
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In multi-stakeholder recommender systems (RS), users and providers operate as two crucial and interdependent roles, whose interests must be well-balanced. Prior research, including our work BankFair, has demonstrated the importance of guaranteeing both provider fairness and user accuracy to meet their interests. However, when they balance the two objectives, another critical factor emerges in RS: individual fairness, which manifests as a significant disparity in individual recommendation accuracy, with some users receiving high accuracy while others are left with notably low accuracy. This oversight severely harms the interests of users and exacerbates social polarization. How to guarantee individual fairness while ensuring user accuracy and provider fairness remains an unsolved problem. To bridge this gap, in this paper, we propose our method BankFair+. Specifically, BankFair+ extends BankFair with two steps: (1) introducing a non-linear function from regret theory to ensure individual fairness while enhancing user accuracy; (2) formulating the re-ranking process as a regret-aware fuzzy programming problem to meet the interests of both individual user and provider, therefore balancing the trade-off between individual fairness and provider fairness. Experiments on two real-world recommendation datasets demonstrate that BankFair+ outperforms all baselines regarding individual fairness, user accuracy, and provider fairness.
- Abstract(参考訳): マルチステークホルダ推薦システム(RS)では、ユーザとプロバイダは2つの重要かつ相互依存的な役割として機能する。
BankFairを含むこれまでの研究は、プロバイダの公正性とユーザの正確性の両方を、彼らの利益を満たすために保証することの重要性を実証してきた。
しかし、2つの目標のバランスをとると、別の重要な要因がRSに現れる: 個別の公正さは、個別の推奨精度において重要な相違点として現れ、一部のユーザーは高い精度で残され、他のユーザーは顕著に低い精度で残されている。
この監視はユーザーの利益を著しく傷つけ、社会的分極を悪化させる。
ユーザの正確性とプロバイダの公正性を確保しながら、個々の公正性を保証する方法は、未解決の問題のままである。
このギャップを埋めるため,本論文では BankFair+ の手法を提案する。
特に BankFair+ は,(1) 後悔理論から非線形関数を導入し,ユーザの正確性を高めつつ,個人の公正性を確保すること,(2) 個々のユーザと提供者の双方の利益を満たすために,後悔を意識したファジィプログラミング問題として再ランク付けプロセスを定式化すること,そして,個々の公正性と提供者の公正性のトレードオフを両立させること,の2つのステップでバンクフェアを拡張している。
2つの実世界のレコメンデーションデータセットの実験では、BankFair+は個々の公正性、ユーザの正確性、プロバイダの公正性に関するベースラインをすべて上回っている。
関連論文リスト
- Emulating Full Participation: An Effective and Fair Client Selection Strategy for Federated Learning [50.060154488277036]
連合学習では、クライアントの選択はモデルの性能と公平性の両方に大きな影響を及ぼす重要な問題である。
2つの指標間の固有の対立に対処し、互いに強化する2つの原則を提案する。
提案手法は,データ分布に基づいてクライアントを選択することにより,この多様性を適応的に向上させ,モデル性能と公平性の両方を改善する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Towards Fair Recommendation in Two-Sided Platforms [36.35034531426411]
特定不可能な商品を適切に配置する問題の制約されたバージョンに対して、公平にパーソナライズされたレコメンデーション問題を提案する。
提案した em FairRec アルゴリズムは,生産者への露出の Maxi-Min Share (alpha$-MMS) を保証し,顧客には Envy-Free to One Item (EF1) を付与する。
論文 参考訳(メタデータ) (2021-12-26T05:14:56Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - TFROM: A Two-sided Fairness-Aware Recommendation Model for Both
Customers and Providers [10.112208859874618]
私たちは、顧客とプロバイダーの両方のための両面公平性認識推奨モデル(TFROM)を設計します。
実験では、TFROMはベースラインアルゴリズムよりも高いレベルのパーソナライゼーションを維持しながら、より良い両面公平性を提供する。
論文 参考訳(メタデータ) (2021-04-19T02:46:54Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - Opportunistic Multi-aspect Fairness through Personalized Re-ranking [5.8562079474220665]
複数の公正度次元にわたる個人の嗜好を学習するフェアネス・アウェア・レコメンデーションに対する再ランクのアプローチを提案する。
我々は,我々の正当性とメートル法に依存しないアプローチが,従来よりも正確性と公平性の間のトレードオフを良好に達成していることを示す。
論文 参考訳(メタデータ) (2020-05-21T04:25:20Z) - Exploring User Opinions of Fairness in Recommender Systems [13.749884072907163]
ユーザーが推奨する公平な待遇の考えは何なのかを尋ねる。
公平性に対するユーザの意見の相違や変化の原因となるものを分析する。
論文 参考訳(メタデータ) (2020-03-13T19:44:26Z) - FairRec: Two-Sided Fairness for Personalized Recommendations in
Two-Sided Platforms [36.35034531426411]
両面のオンラインプラットフォームにおけるフェアレコメンデーションの問題について検討する。
当社のアプローチでは、公正な推奨問題の新たなマッピングと、特定不可能な商品をかなり割当する問題の制約付きのバージョンが関係している。
提案したFairRecアルゴリズムは、ほとんどの生産者に対して少なくともマクシミン・シェア(MMS)の露出を保証し、すべての顧客に対してEvy-Free to Oneアイテム(EF1)のフェアネスを保証します。
論文 参考訳(メタデータ) (2020-02-25T09:43:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。