論文の概要: On User-side Fairness in Negative Sampling for Recommender Systems
- arxiv url: http://arxiv.org/abs/2304.07487v2
- Date: Fri, 20 Dec 2024 03:51:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 19:50:38.991611
- Title: On User-side Fairness in Negative Sampling for Recommender Systems
- Title(参考訳): リコメンダシステムのネガティブサンプリングにおけるユーザ側の公正性について
- Authors: Yueqing Xuan, Kacper Sokol, Mark Sanderson, Jeffrey Chan,
- Abstract要約: 本研究では,非アクティブなユーザよりも,非アクティブなユーザに対して,非アクティブなネガティブサンプリング戦略をより正確に推奨することを示す。
グループ単位の負の比率設定を提案し、不活性なユーザに対して適切な小さい負の比率と、アクティブなユーザに対してより大きな負の比率を用いる。
- 参考スコア(独自算出の注目度): 26.57812122315108
- License:
- Abstract: Recommender systems are usually trained to discern between positive and negative instances for each user. Negative sampling plays an important role in selecting informative negative items. Since positive data is disproportionately contributed by a minority of active users, negative samplers might be affected by data imbalance thus choosing more informative negative items for active users. Consequently, users with low participation are further underrepresented in the training data, potentially causing subpar treatment from recommenders. In this paper we demonstrate empirically that active users receive more accurate recommendation than inactive users for state-of-the-art negative sampling strategies, and the degree of data imbalance influences the severity of performance disparities. We further show that the performance gain brought by sampling more negative instances for each positive item is unequally distributed across user groups. Generally, active users benefit from performance gain whereas inactive users might suffer from performance degradation. To address these shortcomings, we propose a group-wise negative ratio setup where we use the appropriate smaller negative ratio for inactive users and a bigger ratio for active users. Comprehensive experiments show our proposed group-wise ratio outperforms a single global ratio in user-side fairness and performance improvement.
- Abstract(参考訳): レコメンダシステムは、通常、各ユーザに対して肯定的なインスタンスと否定的なインスタンスを区別するように訓練される。
否定的サンプリングは、情報的ネガティブな項目を選択する上で重要な役割を果たす。
ポジティブなデータは少数のアクティブなユーザによって不均等に寄与されるため、ネガティブなサンプルはデータ不均衡の影響を受け、アクティブなユーザにとってより有益なネガティブなアイテムを選択することができる。
その結果、トレーニングデータでは、参加率の低いユーザは、さらに過小評価され、レコメンデータからのサブパー処理が生じる可能性がある。
本稿では, アクティブユーザに対して, 最先端のネガティブサンプリング戦略に対する非アクティブユーザよりも正確な推奨が得られ, データの不均衡度が, 性能格差の深刻度に影響を与えることを実証的に示す。
さらに、各正の項目に対してより負のインスタンスをサンプリングすることで得られるパフォーマンス向上が、ユーザグループ間で不平等に分散されていることを示す。
一般的に、アクティブユーザはパフォーマンス向上の恩恵を受けるが、アクティブでないユーザはパフォーマンス劣化に悩まされる。
これらの欠点に対処するため,不活性なユーザに対して適切な負の比率と,アクティブなユーザに対してより大きい比率を使用するグループ単位の負の比率設定を提案する。
包括的実験により,提案したグループワイド比は,ユーザ側の公正度と性能改善率において,単一のグローバル比を上回った。
関連論文リスト
- Contrastive Learning with Negative Sampling Correction [52.990001829393506]
PUCL(Positive-Unlabeled Contrastive Learning)という新しいコントラスト学習手法を提案する。
PUCLは生成した負のサンプルをラベルのないサンプルとして扱い、正のサンプルからの情報を用いて、対照的な損失のバイアスを補正する。
PUCLは一般的なコントラスト学習問題に適用でき、様々な画像やグラフの分類タスクにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-01-13T11:18:18Z) - DPR: An Algorithm Mitigate Bias Accumulation in Recommendation feedback
loops [41.21024436158042]
フィードバックループと未知の露出メカニズムが推奨品質とユーザエクスペリエンスに与える影響について検討した。
本研究では,動的再重み付けを用いてクロスエフェクトを緩和する非バイアスアルゴリズムである動的パーソナライズランキング(textbfDPR)を提案する。
提案手法は,フィードバックループと未知の露出機構の負の効果を緩和するものである。
論文 参考訳(メタデータ) (2023-11-10T04:36:00Z) - Learning from Negative User Feedback and Measuring Responsiveness for
Sequential Recommenders [13.762960304406016]
シーケンシャルレコメンデータのトレーニング目標に、明示的かつ暗黙的なネガティブなユーザフィードバックを導入する。
大規模産業レコメンデーションシステムを用いた実演実験により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-08-23T17:16:07Z) - Personalizing Intervened Network for Long-tailed Sequential User
Behavior Modeling [66.02953670238647]
タイルユーザーは、共同トレーニング後のヘッドユーザーよりも大幅に品質の低いレコメンデーションに悩まされる。
テールユーザーで個別に訓練されたモデルは、限られたデータのために依然として劣った結果が得られる。
本稿では,テールユーザの推薦性能を大幅に向上させる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-19T02:50:19Z) - Generating Negative Samples for Sequential Recommendation [83.60655196391855]
逐次レコメンデーション(SR)のための負のサンプル(イテム)を生成することを提案する。
アイテムに対する現在のSRモデルの学習されたユーザの好みに基づいて、各タイムステップで負の項目をサンプリングする。
4つの公開データセットの実験は、SRに高品質な負のサンプルを提供することの重要性を検証する。
論文 参考訳(メタデータ) (2022-08-07T05:44:13Z) - FedCL: Federated Contrastive Learning for Privacy-Preserving
Recommendation [98.5705258907774]
FedCLは、プライバシーを十分に保護した効果的なモデルトレーニングのために、高品質な負のサンプルを利用することができる。
まず、各クライアントのローカルモデルを介してローカルユーザデータからユーザ埋め込みを推測し、その後、ローカルディファレンシャルプライバシ(LDP)で摂動する。
個々のユーザ埋め込みにはLDPによる重騒音が伴うため,ノイズの影響を軽減するため,サーバ上にユーザ埋め込みをクラスタ化することを提案する。
論文 参考訳(メタデータ) (2022-04-21T02:37:10Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - User-oriented Fairness in Recommendation [21.651482297198687]
我々は,レコメンダシステムにおける不公平性問題に対して,ユーザの視点から対処する。
ユーザの行動レベルに応じて、有利で不利なグループにグループ化します。
提案手法は,レコメンデーションシステムにおけるユーザのグループ公平性を向上するだけでなく,全体的なレコメンデーション性能も向上する。
論文 参考訳(メタデータ) (2021-04-21T17:50:31Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。