論文の概要: Intersectional Two-sided Fairness in Recommendation
- arxiv url: http://arxiv.org/abs/2402.02816v2
- Date: Thu, 15 Feb 2024 09:19:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 18:40:55.344823
- Title: Intersectional Two-sided Fairness in Recommendation
- Title(参考訳): 勧告の両面公正性
- Authors: Yifan Wang, Peijie Sun, Weizhi Ma, Min Zhang, Yuan Zhang, Peng Jiang,
Shaoping Ma
- Abstract要約: IFR(Inter-sectional Two-sided Fairness Recommendation)と呼ばれる新しいアプローチを提案する。
提案手法は,不利な群を知覚するシャープネス・アウェア・ロスを利用して協調的損失バランスを用いて,異なる交叉群に対して一貫した識別能力を開発する。
提案手法は, 両面の不公平性を効果的に軽減し, 従来手法よりも一貫して優れていた。
- 参考スコア(独自算出の注目度): 41.96733939002468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness of recommender systems (RS) has attracted increasing attention
recently. Based on the involved stakeholders, the fairness of RS can be divided
into user fairness, item fairness, and two-sided fairness which considers both
user and item fairness simultaneously. However, we argue that the
intersectional two-sided unfairness may still exist even if the RS is two-sided
fair, which is observed and shown by empirical studies on real-world data in
this paper, and has not been well-studied previously. To mitigate this problem,
we propose a novel approach called Intersectional Two-sided Fairness
Recommendation (ITFR). Our method utilizes a sharpness-aware loss to perceive
disadvantaged groups, and then uses collaborative loss balance to develop
consistent distinguishing abilities for different intersectional groups.
Additionally, predicted score normalization is leveraged to align positive
predicted scores to fairly treat positives in different intersectional groups.
Extensive experiments and analyses on three public datasets show that our
proposed approach effectively alleviates the intersectional two-sided
unfairness and consistently outperforms previous state-of-the-art methods.
- Abstract(参考訳): 推薦システム(RS)の公正性は近年注目を集めている。
関係する利害関係者に基づいて、RSの公平性は、ユーザフェアネス、アイテムフェアネス、およびユーザフェアネスとアイテムフェアネスの両方を同時に考慮する両側フェアネスに分けられる。
しかし,本論文における実世界データに関する実証的研究により,RSが両面公正であっても,交差する二面不公平性は依然として存在すると論じる。
この問題を軽減するため,我々は交叉2面フェアネスレコメンデーション(itfr)と呼ばれる新しいアプローチを提案する。
本手法は,不利なグループを知覚するためにシャープネス認識損失を利用し,協調的損失バランスを用いて異なる交叉群に対して一貫した識別能力を開発する。
さらに、予測スコア正規化を利用して、正の予測スコアを異なる交叉群で相当に評価する。
3つの公開データセットの大規模な実験と分析により,提案手法は両面の不公平性を効果的に軽減し,従来の最先端手法を一貫して上回ることを示す。
関連論文リスト
- FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Fair Reciprocal Recommendation in Matching Markets [0.8287206589886881]
エージェント間の双方向のマッチング市場における相互推薦について検討する。
我々のモデルでは、双方の個人が互いに関心を抱いている場合にのみ、マッチが成功すると考えられる。
フェアディビジョン理論の観点から、そのフェアネス基準、うらやましい自由さを導入する。
論文 参考訳(メタデータ) (2024-09-01T13:33:41Z) - An IPW-based Unbiased Ranking Metric in Two-sided Markets [3.845857580909374]
本稿では,2つの市場におけるユーザ間のバイアスの複雑な相互作用について論じる。
そこで我々は,2面IPWという新しい推定器を提案し,その位置ベースを両面IPWと呼ぶ。
論文 参考訳(メタデータ) (2023-07-14T01:44:03Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Increasing Fairness via Combination with Learning Guarantees [8.314000998551865]
個人と集団の公平性の両方を反映する差別的リスクという,公正性の品質指標を提案する。
また,一階と二階のオラクル境界を提案し,理論学習保証とアンサンブルの組み合わせにより公平性を高めることができることを示した。
論文 参考訳(メタデータ) (2023-01-25T20:31:06Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - "And the Winner Is...": Dynamic Lotteries for Multi-group Fairness-Aware
Recommendation [37.35485045640196]
我々は、以前の文献は単純で一様であり、フェアネスの仮定の単次元の概念に基づいていたと論じる。
私たちは、多元的定義と交差する保護されたグループ間の正確性と公平性の間のトレードオフに参入する設計上の決定を明確に表現します。
公正な関心事を選択するための宝くじに基づくメカニズムを定式化し、その性能を2つの推奨領域で実証する。
論文 参考訳(メタデータ) (2020-09-05T20:15:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。