論文の概要: Metrics for popularity bias in dynamic recommender systems
- arxiv url: http://arxiv.org/abs/2310.08455v1
- Date: Thu, 12 Oct 2023 16:15:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 08:56:45.244000
- Title: Metrics for popularity bias in dynamic recommender systems
- Title(参考訳): 動的推薦システムにおける人気バイアスのメトリクス
- Authors: Valentijn Braun, Debarati Bhaumik, and Diptish Dey
- Abstract要約: バイアスドレコメンデーションは個人、敏感なユーザーグループ、社会に悪影響を及ぼす可能性のある決定につながる可能性がある。
本稿では,RecSysモデルの出力から直接発生する人気バイアスの定量化に着目する。
RescSysにおける人気バイアスを時間とともに定量化するための4つの指標が提案されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Albeit the widespread application of recommender systems (RecSys) in our
daily lives, rather limited research has been done on quantifying unfairness
and biases present in such systems. Prior work largely focuses on determining
whether a RecSys is discriminating or not but does not compute the amount of
bias present in these systems. Biased recommendations may lead to decisions
that can potentially have adverse effects on individuals, sensitive user
groups, and society. Hence, it is important to quantify these biases for fair
and safe commercial applications of these systems. This paper focuses on
quantifying popularity bias that stems directly from the output of RecSys
models, leading to over recommendation of popular items that are likely to be
misaligned with user preferences. Four metrics to quantify popularity bias in
RescSys over time in dynamic setting across different sensitive user groups
have been proposed. These metrics have been demonstrated for four collaborative
filtering based RecSys algorithms trained on two commonly used benchmark
datasets in the literature. Results obtained show that the metrics proposed
provide a comprehensive understanding of growing disparities in treatment
between sensitive groups over time when used conjointly.
- Abstract(参考訳): 日常生活におけるレコメンダシステム(recsys)の広範にわたる適用にもかかわらず、そのようなシステムに存在する不公平さやバイアスを定量化するための限られた研究が行われてきた。
先行研究は主に、recsysが識別しているかどうかを決定することに重点を置いているが、これらのシステムに存在するバイアスの量を計算していない。
偏りのある推奨は、個人、敏感なユーザーグループ、社会に悪影響を及ぼす可能性がある決定につながる可能性がある。
したがって、これらのシステムの公正かつ安全な商業的応用のために、これらのバイアスを定量化することが重要である。
本稿では、RecSysモデルの出力から直接生じる人気バイアスの定量化に焦点をあて、ユーザの好みと一致しない可能性のある人気アイテムの推薦を過度に行う。
RescSysにおける人気バイアスを時間とともに定量化するための4つの指標が提案されている。
これらのメトリクスは、4つのコラボレーティブフィルタリングベースのrecsysアルゴリズムで実証されており、文献でよく使われる2つのベンチマークデータセットでトレーニングされている。
以上の結果から,提案した指標は,併用時の感度群間処理における差異の増大を包括的に把握できることを示した。
関連論文リスト
- Measuring and Addressing Indexical Bias in Information Retrieval [69.7897730778898]
PAIRフレームワークは、ランキングドキュメンテーションやIRシステム全体の自動バイアス監査をサポートする。
DUOを導入した後、我々は32kの合成と4.7kの天然文書からなる新しいコーパスで8つのIRシステムの広範な評価を行った。
人間の行動学的研究は、私たちのアプローチを検証し、私たちのバイアスメトリクスが、いつ、どのように指標バイアスが読者の意見を変えるかを予測するのに役立ちます。
論文 参考訳(メタデータ) (2024-06-06T17:42:37Z) - Going Beyond Popularity and Positivity Bias: Correcting for Multifactorial Bias in Recommender Systems [74.47680026838128]
ユーザインタラクションデータとレコメンダシステム(RS)の2つの典型的なバイアスは、人気バイアスと肯定バイアスである。
項目と評価値の双方に影響される多因子選択バイアスについて検討する。
分散を低減し、最適化の堅牢性を向上させるため、スムースで交互に勾配降下する手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T12:18:21Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - Unbiased Learning to Rank with Biased Continuous Feedback [5.561943356123711]
雑音フィードバックに基づいて相対関係を正確にモデル化するために,非バイアス学習 to ランク(LTR)アルゴリズムを検証した。
パーソナライズされた高品質なレコメンデーション結果を提供するために、レコメンダシステムはカテゴリと継続的なバイアスフィードバックの両方をモデルにする必要があります。
位置バイアス、信頼バイアス、ユーザ関係を明確に区別するために、ペアワイズ信頼バイアスを導入します。
Tencent Newsの公開ベンチマークデータセットと大規模レコメンデータシステムの内部ライブトラフィックの実験結果は、連続ラベルに対して優れた結果を示している。
論文 参考訳(メタデータ) (2023-03-08T02:14:08Z) - Managing multi-facet bias in collaborative filtering recommender systems [0.0]
アイテムグループ間のバイアスドレコメンデーションは、システムに対するユーザの不満を引き起こすとともに、アイテムプロバイダの利益を脅かす可能性がある。
本研究の目的は,最先端の協調フィルタリング推薦アルゴリズムの出力における地理的起源と人気に関する新たなタイプの交叉バイアスを管理することである。
2つの実世界の映画と書籍のデータセットに関する大規模な実験は、アイテムの生産大陸に富んだものであり、提案アルゴリズムが精度と上記のバイアスの両タイプの間に合理的なバランスをとっていることを示している。
論文 参考訳(メタデータ) (2023-02-21T10:06:01Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Unbiased Pairwise Learning to Rank in Recommender Systems [4.058828240864671]
アルゴリズムをランク付けする偏見のない学習は、候補をアピールし、既に単一の分類ラベルを持つ多くのアプリケーションに適用されている。
本稿では,この課題に対処するための新しい非バイアス付きLTRアルゴリズムを提案する。
パブリックベンチマークデータセットと内部ライブトラフィックを用いた実験結果から,分類ラベルと連続ラベルのいずれにおいても提案手法の優れた結果が得られた。
論文 参考訳(メタデータ) (2021-11-25T06:04:59Z) - Correcting the User Feedback-Loop Bias for Recommendation Systems [34.44834423714441]
本稿では,レコメンデーションシステムにおいて,ユーザのフィードバックループバイアスを修正するための系統的かつ動的手法を提案する。
本手法は,各ユーザの動的評価履歴の埋め込みを学習するためのディープラーニングコンポーネントを含む。
実世界のレコメンデーションシステムにおけるユーザフィードバックループバイアスの存在を実証的に検証した。
論文 参考訳(メタデータ) (2021-09-13T15:02:55Z) - Estimation of Fair Ranking Metrics with Incomplete Judgments [70.37717864975387]
本研究では,4つの評価指標のサンプリング手法と推定手法を提案する。
ラベル付きアイテムの数が極めて少ない場合でも動作可能な頑健で偏りのない推定器を定式化する。
論文 参考訳(メタデータ) (2021-08-11T10:57:00Z) - User-centered Evaluation of Popularity Bias in Recommender Systems [4.30484058393522]
推薦とランク付けシステムは人気バイアスに悩まされ、アルゴリズムは人気アイテムを数種類選んで、他の項目の大半を下書きする傾向にある。
本稿では,これらのアルゴリズムをユーザの視点から評価したい場合に,人気バイアス軽減度を評価するための既存の指標の限界を示す。
ユーザ中心の視点から,人気バイアスを緩和する効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-03-10T22:12:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。