論文の概要: In-processing User Constrained Dominant Sets for User-Oriented Fairness
in Recommender Systems
- arxiv url: http://arxiv.org/abs/2309.01335v1
- Date: Mon, 4 Sep 2023 03:34:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 20:03:34.185541
- Title: In-processing User Constrained Dominant Sets for User-Oriented Fairness
in Recommender Systems
- Title(参考訳): レコメンダシステムにおけるユーザ指向公平性のためのインプロセッシングユーザ制約支配セット
- Authors: Zhongxuan Han, Chaochao Chen, Xiaolin Zheng, Weiming Liu, Jun Wang,
Wenjie Cheng, Yuyuan Li
- Abstract要約: In-processing User Constrained Dominant Sets (In-UCDS) framework to achieve user-oriented fairness。
In-UCDSは最先端の手法よりも優れており、全体的なレコメンデーション性能が向上したより公平なモデルとなっている。
- 参考スコア(独自算出の注目度): 23.48974802023629
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommender systems are typically biased toward a small group of users,
leading to severe unfairness in recommendation performance, i.e., User-Oriented
Fairness (UOF) issue. The existing research on UOF is limited and fails to deal
with the root cause of the UOF issue: the learning process between advantaged
and disadvantaged users is unfair. To tackle this issue, we propose an
In-processing User Constrained Dominant Sets (In-UCDS) framework, which is a
general framework that can be applied to any backbone recommendation model to
achieve user-oriented fairness. We split In-UCDS into two stages, i.e., the
UCDS modeling stage and the in-processing training stage. In the UCDS modeling
stage, for each disadvantaged user, we extract a constrained dominant set (a
user cluster) containing some advantaged users that are similar to it. In the
in-processing training stage, we move the representations of disadvantaged
users closer to their corresponding cluster by calculating a fairness loss. By
combining the fairness loss with the original backbone model loss, we address
the UOF issue and maintain the overall recommendation performance
simultaneously. Comprehensive experiments on three real-world datasets
demonstrate that In-UCDS outperforms the state-of-the-art methods, leading to a
fairer model with better overall recommendation performance.
- Abstract(参考訳): 通常、レコメンダシステムは少数のユーザーに対して偏りがあり、レコメンデーションパフォーマンス、すなわちユーザ指向公正(UOF)問題において深刻な不公平をもたらす。
UOFに関する既存の研究は限られており、UOF問題の根本原因に対処できない。
この問題に対処するため、ユーザ指向の公正性を達成するために、バックボーンレコメンデーションモデルに適用可能な一般的なフレームワークであるIn-processing User Constrained Dominant Sets (In-UCDS)フレームワークを提案する。
In-UCDSをUCDSモデリングステージとインプロセストレーニングステージの2つのステージに分けた。
UCDSモデリングの段階では、各不利なユーザに対して、いくつかの有利なユーザを含む制約付き支配的セット(ユーザクラスタ)を抽出する。
プロセス内トレーニングの段階では、不利なユーザの表現を、公正な損失を計算して対応するクラスタに近づける。
フェアネス損失と元のバックボーンモデル損失を組み合わせることで、UOF問題に対処し、全体的なレコメンデーション性能を同時に維持する。
3つの実世界のデータセットに関する総合的な実験により、In-UCDSは最先端の手法よりも優れており、全体的なレコメンデーションパフォーマンスが向上したより公正なモデルにつながっている。
関連論文リスト
- Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - Correcting for Popularity Bias in Recommender Systems via Item Loss Equalization [1.7771454131646311]
人気アイテムの小さなセットが、高い相互作用率のために推奨結果を支配している。
この現象は、ニッチな興味のある人を無視しながら、メインストリームの趣味を持つユーザーに不当に利益をもたらす。
本稿では,推薦モデルのトレーニングプロセスに介入することで,この問題に対処するプロセス内アプローチを提案する。
論文 参考訳(メタデータ) (2024-10-07T08:34:18Z) - Cross-Domain Causal Preference Learning for Out-of-Distribution Recommendation [0.8315707564931466]
現在の推奨システムは、トレーニングとテストデータセットが同じ分布を持つという仮定に依存している。
本研究では,CDCOR(Out-of-Distribution Recommendation)のためのクロスドメイン因果選好学習モデルを提案する。
論文 参考訳(メタデータ) (2024-04-23T09:21:15Z) - DRAUC: An Instance-wise Distributionally Robust AUC Optimization
Framework [133.26230331320963]
ROC曲線のエリア(AUC)は、長い尾の分類のシナリオにおいて広く用いられている指標である。
本研究では,分散ロバストAUC(DRAUC)のインスタンスワイドサロゲート損失を提案し,その上に最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-11-06T12:15:57Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Experiments on Generalizability of User-Oriented Fairness in Recommender
Systems [2.0932879442844476]
公正を意識した推薦システムは、異なるユーザーグループを同様に扱うことを目的としている。
本稿では,ユーザ中心の公平度を再評価するフレームワークを提案する。
我々は、ユーザ(NDCGなど)とアイテム(新規性、アイテムフェアネスなど)の両方から、フレームワークの再ランク付けによる最終的なレコメンデーションを評価する。
論文 参考訳(メタデータ) (2022-05-17T12:36:30Z) - WSLRec: Weakly Supervised Learning for Neural Sequential Recommendation
Models [24.455665093145818]
我々は、WSLRecと呼ばれる新しいモデルに依存しないトレーニング手法を提案し、3段階のフレームワーク(事前学習、トップ$k$マイニング、本質的、微調整)を採用する。
WSLRec は、BR や ItemCF のようなモデルフリーメソッドから、余分な弱い監督のモデルを事前訓練することで、不完全性の問題を解決すると同時に、最上位の$k のマイニングを活用して、微調整のための弱い監督の信頼性の高いユーザ・イテム関連を検査することで、不正確な問題を解消する。
論文 参考訳(メタデータ) (2022-02-28T08:55:12Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - User-oriented Fairness in Recommendation [21.651482297198687]
我々は,レコメンダシステムにおける不公平性問題に対して,ユーザの視点から対処する。
ユーザの行動レベルに応じて、有利で不利なグループにグループ化します。
提案手法は,レコメンデーションシステムにおけるユーザのグループ公平性を向上するだけでなく,全体的なレコメンデーション性能も向上する。
論文 参考訳(メタデータ) (2021-04-21T17:50:31Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。