論文の概要: It's Not You, It's Me: The Impact of Choice Models and Ranking Strategies on Gender Imbalance in Music Recommendation
- arxiv url: http://arxiv.org/abs/2409.03781v1
- Date: Thu, 22 Aug 2024 11:44:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 17:22:26.364338
- Title: It's Not You, It's Me: The Impact of Choice Models and Ranking Strategies on Gender Imbalance in Music Recommendation
- Title(参考訳): It's not you, It's Me: The Impact of Choice Models and Ranking Strategies on Gender Im Balance in Music Recommendation (英語)
- Authors: Andres Ferraro, Michael D. Ekstrand, Christine Bauer,
- Abstract要約: 本研究では、ランク付け戦略とユーザー選択モデルがジェンダーフェアネス指標に及ぼす影響について検討する。
再ランク戦略は、ユーザの選択モデルよりも、時間の経過とともにリコメンデーションフェアネスに影響を及ぼす。
- 参考スコア(独自算出の注目度): 7.94306624344211
- License:
- Abstract: As recommender systems are prone to various biases, mitigation approaches are needed to ensure that recommendations are fair to various stakeholders. One particular concern in music recommendation is artist gender fairness. Recent work has shown that the gender imbalance in the sector translates to the output of music recommender systems, creating a feedback loop that can reinforce gender biases over time. In this work, we examine that feedback loop to study whether algorithmic strategies or user behavior are a greater contributor to ongoing improvement (or loss) in fairness as models are repeatedly re-trained on new user feedback data. We simulate user interaction and re-training to investigate the effects of ranking strategies and user choice models on gender fairness metrics. We find re-ranking strategies have a greater effect than user choice models on recommendation fairness over time.
- Abstract(参考訳): 推薦システムは様々なバイアスを起こす傾向にあるため、様々な利害関係者に公正なレコメンデーションを保証するために緩和アプローチが必要である。
音楽レコメンデーションにおける特に関心事は、アーティストのジェンダーフェアネスである。
近年の研究では、セクターにおけるジェンダーの不均衡が音楽レコメンデーションシステムの出力に変換され、時間とともにジェンダーバイアスを補強するフィードバックループが作成されている。
本研究では,アルゴリズム戦略やユーザ行動が,新たなユーザフィードバックデータに対して,モデルが繰り返し再学習されることで,継続的な改善(あるいは損失)に寄与するかどうかを調査するフィードバックループについて検討する。
ユーザのインタラクションと再学習をシミュレートし、ランク付け戦略とユーザ選択モデルがジェンダーフェアネス指標に与える影響について検討する。
再ランク戦略は、ユーザの選択モデルよりも、時間の経過とともにリコメンデーションフェアネスに影響を及ぼす。
関連論文リスト
- Understanding and Addressing Gender Bias in Expert Finding Task [6.239590365208578]
本研究では,現在最先端のExpert Finding(EF)モデルにおける性別バイアスについて検討する。
その結果,評価指標と活動レベルに依存したモデルが男性ユーザにとって不相応に有利であることが判明した。
我々は、よりバランスの取れた事前処理戦略を取り入れたEFモデルの調整を提案し、コンテンツベースおよびソーシャルネットワークベースの情報を活用する。
論文 参考訳(メタデータ) (2024-07-07T11:35:23Z) - Measuring Strategization in Recommendation: Users Adapt Their Behavior to Shape Future Content [66.71102704873185]
実験と調査を行うことで,ユーザストラテジゼーションの試行を行う。
参加者の居住時間や「いいね!」の使用など,結果指標間での戦略化の強い証拠を見出す。
この結果から,プラットフォームはアルゴリズムがユーザの行動に与える影響を無視できないことが示唆された。
論文 参考訳(メタデータ) (2024-05-09T07:36:08Z) - Provable Benefits of Policy Learning from Human Preferences in
Contextual Bandit Problems [82.92678837778358]
嗜好に基づく手法は、InstructGPTのような経験的応用でかなりの成功を収めている。
フィードバックモデリングにおける人間のバイアスと不確実性がこれらのアプローチの理論的保証にどのように影響するかを示す。
論文 参考訳(メタデータ) (2023-07-24T17:50:24Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Revisiting Popularity and Demographic Biases in Recommender Evaluation
and Effectiveness [6.210698627561645]
我々は,人気や人口統計によって,レコメンダのパフォーマンスがどう変化するかを検討する。
年齢,性別ともに,推奨者のパフォーマンスに統計的に有意な差が認められた。
我々は、推奨ユーティリティが高齢ユーザーにとって着実に低下し、女性にとっては男性よりも低いことを観察する。
論文 参考訳(メタデータ) (2021-10-15T20:30:51Z) - Correcting the User Feedback-Loop Bias for Recommendation Systems [34.44834423714441]
本稿では,レコメンデーションシステムにおいて,ユーザのフィードバックループバイアスを修正するための系統的かつ動的手法を提案する。
本手法は,各ユーザの動的評価履歴の埋め込みを学習するためのディープラーニングコンポーネントを含む。
実世界のレコメンデーションシステムにおけるユーザフィードバックループバイアスの存在を実証的に検証した。
論文 参考訳(メタデータ) (2021-09-13T15:02:55Z) - Bias: Friend or Foe? User Acceptance of Gender Stereotypes in Automated
Career Recommendations [8.44485053836748]
我々は、公正なAIアルゴリズムが現実の世界でその意図した結果を達成するには不十分であることを示した。
キャリアレコメンデーションをケーススタディとして利用し、ジェンダーの偏りを抑える機械学習技術を用いて、公正なAIキャリアレコメンデーターを構築する。
論文 参考訳(メタデータ) (2021-06-13T23:27:45Z) - Partial Bandit and Semi-Bandit: Making the Most Out of Scarce Users'
Feedback [62.997667081978825]
本稿では,ユーザのフィードバックを考慮し,3つの戦略を用いて評価する手法を提案する。
ユーザからのフィードバックが制限されているにも関わらず(全体の20%以下)、我々の手法は最先端のアプローチと同じような結果が得られる。
論文 参考訳(メタデータ) (2020-09-16T07:32:51Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。