論文の概要: Mitigating Popularity Bias in Collaborative Filtering through Fair Sampling
- arxiv url: http://arxiv.org/abs/2502.13840v1
- Date: Wed, 19 Feb 2025 15:59:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 14:00:43.404841
- Title: Mitigating Popularity Bias in Collaborative Filtering through Fair Sampling
- Title(参考訳): フェアサンプリングによる協調フィルタリングにおける人気バイアスの緩和
- Authors: Jiahao Liu, Dongsheng Li, Hansu Gu, Peng Zhang, Tun Lu, Li Shang, Ning Gu,
- Abstract要約: この問題に対処するために、Fair Smpling (FS) アプローチを導入します。
従来の逆確率スコア(IPS)法とは異なり、FSは確率推定を必要としない。
実験結果から,FS はポイントワイドおよびペアワイドのレコメンデーションタスクにおいて,最先端の手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 31.8123420283795
- License:
- Abstract: Recommender systems often suffer from popularity bias, where frequently interacted items are overrepresented in recommendations. This bias stems from propensity factors influencing training data, leading to imbalanced exposure. In this paper, we introduce a Fair Sampling (FS) approach to address this issue by ensuring that both users and items are selected with equal probability as positive and negative instances. Unlike traditional inverse propensity score (IPS) methods, FS does not require propensity estimation, eliminating errors associated with inaccurate calculations. Our theoretical analysis demonstrates that FS effectively neutralizes the influence of propensity factors, achieving unbiased learning. Experimental results validate that FS outperforms state-of-the-art methods in both point-wise and pair-wise recommendation tasks, enhancing recommendation fairness without sacrificing accuracy. The implementation is available at https://anonymous.4open.science/r/Fair-Sampling.
- Abstract(参考訳): レコメンデーションシステムは、しばしば人気バイアスに悩まされ、対話されたアイテムはレコメンデーションで過剰に表現される。
このバイアスは、トレーニングデータに影響を与える確率要因から生じ、不均衡な露出につながる。
本稿では,ユーザとアイテムが同じ確率で肯定的,否定的に選択されることを保証することによって,この問題に対処するFair Smpling(FS)アプローチを提案する。
従来の逆確率スコア(IPS)法とは異なり、FSは不正確な計算に伴う誤差を排除し、確率推定を必要としない。
我々の理論的分析は、FSが不偏学習を達成することにより、確率要因の影響を効果的に中和することを示している。
実験結果から,FS はポイントワイドおよびペアワイドのレコメンデーションタスクにおいて最先端の手法よりも優れており,精度を犠牲にすることなくレコメンデーションフェアネスを高めることができることがわかった。
実装はhttps://anonymous.4open.science/r/Fair-Samplingで公開されている。
関連論文リスト
- Correcting for Popularity Bias in Recommender Systems via Item Loss Equalization [1.7771454131646311]
人気アイテムの小さなセットが、高い相互作用率のために推奨結果を支配している。
この現象は、ニッチな興味のある人を無視しながら、メインストリームの趣味を持つユーザーに不当に利益をもたらす。
本稿では,推薦モデルのトレーニングプロセスに介入することで,この問題に対処するプロセス内アプローチを提案する。
論文 参考訳(メタデータ) (2024-10-07T08:34:18Z) - Going Beyond Popularity and Positivity Bias: Correcting for Multifactorial Bias in Recommender Systems [74.47680026838128]
ユーザインタラクションデータとレコメンダシステム(RS)の2つの典型的なバイアスは、人気バイアスと肯定バイアスである。
項目と評価値の双方に影響される多因子選択バイアスについて検討する。
分散を低減し、最適化の堅牢性を向上させるため、スムースで交互に勾配降下する手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T12:18:21Z) - Take Care of Your Prompt Bias! Investigating and Mitigating Prompt Bias in Factual Knowledge Extraction [56.17020601803071]
近年の研究では、事前学習言語モデル(PLM)が、事実知識抽出において「急激なバイアス」に悩まされていることが示されている。
本稿では,突発バイアスを徹底的に調査し緩和することにより,既存のベンチマークの信頼性を向上させることを目的とする。
論文 参考訳(メタデータ) (2024-03-15T02:04:35Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Bias-Tolerant Fair Classification [20.973916494320246]
ラベルバイアスと選択バイアスは、機械学習の結果の公平性を妨げるデータにおける2つの理由である。
本稿では,ラベルバイアスと選択バイアスの影響を受けるデータを用いて,利益を回復しようとするBias-TolerantFAirRegularizedLoss (B-FARL)を提案する。
B-FARLはバイアスデータを入力として取り、公正だが潜伏的なデータで訓練されたデータを近似したモデルを呼び出す。
論文 参考訳(メタデータ) (2021-07-07T13:31:38Z) - Debiasing classifiers: is reality at variance with expectation? [9.730485257882433]
私たちは、デバイアスは実際に、サンプル外データを一般化するのに失敗することが多く、実際は、改善よりも公平さを悪くする可能性があることを示しています。
公正さを考えると、パフォーマンスのトレードオフは、部分的偏りが実際にサンプル外データで実践した場合により良い結果をもたらすという直感的な考え方を正当化する。
論文 参考訳(メタデータ) (2020-11-04T17:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。