論文の概要: Bias vs Bias -- Dawn of Justice: A Fair Fight in Recommendation Systems
- arxiv url: http://arxiv.org/abs/2506.18327v1
- Date: Mon, 23 Jun 2025 06:19:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.880453
- Title: Bias vs Bias -- Dawn of Justice: A Fair Fight in Recommendation Systems
- Title(参考訳): Bias vs. Bias: Dawn of Justice: A Fair Fight in Recommendation Systems
- Authors: Tahsin Alamgir Kheya, Mohamed Reda Bouadjenek, Sunil Aryal,
- Abstract要約: 本稿では,各カテゴリーの偏見を緩和するフェアネス・アウェア・リグレード・アプローチを提案する。
このアプローチは、性別、年齢、職業など、複数のセンシティブな属性に対するバイアスを軽減することができることを示す。
以上の結果から,この手法が社会的偏見の緩和にどのように役立つかが示唆された。
- 参考スコア(独自算出の注目度): 2.124791625488617
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recommendation systems play a crucial role in our daily lives by impacting user experience across various domains, including e-commerce, job advertisements, entertainment, etc. Given the vital role of such systems in our lives, practitioners must ensure they do not produce unfair and imbalanced recommendations. Previous work addressing bias in recommendations overlooked bias in certain item categories, potentially leaving some biases unaddressed. Additionally, most previous work on fair re-ranking focused on binary-sensitive attributes. In this paper, we address these issues by proposing a fairness-aware re-ranking approach that helps mitigate bias in different categories of items. This re-ranking approach leverages existing biases to correct disparities in recommendations across various demographic groups. We show how our approach can mitigate bias on multiple sensitive attributes, including gender, age, and occupation. We experimented on three real-world datasets to evaluate the effectiveness of our re-ranking scheme in mitigating bias in recommendations. Our results show how this approach helps mitigate social bias with little to no degradation in performance.
- Abstract(参考訳): 推薦システムは,eコマース,求人広告,エンターテイメントなど,さまざまな分野のユーザエクスペリエンスに影響を与えることで,私たちの日常生活において重要な役割を担っている。
私たちの生活におけるこのようなシステムの役割を考えると、実践者は不公平で不均衡なレコメンデーションを作らないようにしなければなりません。
推奨項目のバイアスに対処する以前の作業では、特定の項目のバイアスが見過ごされ、いくつかのバイアスは未適応のままである可能性がある。
さらに、以前のほとんどの作業は、バイナリ依存属性に焦点を当てた公正な再ランク付けに重点を置いていた。
本稿では,各項目の偏見を緩和するフェアネス・アウェア・リグレード・アプローチを提案する。
この再ランクのアプローチは、既存のバイアスを活用して、さまざまな人口集団にわたる推薦の相違を補正する。
このアプローチは、性別、年齢、職業など、複数のセンシティブな属性に対するバイアスを軽減することができることを示す。
提案手法の有効性を評価するために,実世界の3つのデータセットを用いて実験を行った。
以上の結果から,この手法が社会的偏見の緩和にどのように役立つかが示唆された。
関連論文リスト
- Unmasking Gender Bias in Recommendation Systems and Enhancing Category-Aware Fairness [2.124791625488617]
我々は、レコメンデーションにおけるジェンダーバイアスのための総合的な指標のセットを紹介する。
より粒度の高いレベルで公平さを評価することの重要性を示す。
モデル出力のバイアスを効果的に最小化するために,カテゴリー認識公正度尺度を正規化用語として,トレーニング中の主な推奨損失と組み合わせることで有効であることを示す。
論文 参考訳(メタデータ) (2025-02-25T07:37:28Z) - Reducing Popularity Influence by Addressing Position Bias [0.0]
位置偏差は,フィードバックループを通じて位置偏差によって引き起こされる項目の人気を効果的に低減できることを示す。
ユーザのエンゲージメントや財務指標を損なうことなく、位置偏りがアソシエーション利用を著しく改善できることを示す。
論文 参考訳(メタデータ) (2024-12-11T21:16:37Z) - Unveiling and Mitigating Bias in Large Language Model Recommendations: A Path to Fairness [3.5297361401370044]
本研究では,LLMに基づくレコメンデーションシステムとバイアスの相互作用について検討する。
音楽、歌、書籍のレコメンデーションなど、様々な民族や文化グループに重点を置いている。
我々の発見によると、これらのシステムのバイアスは深く根深いが、迅速なエンジニアリングのような単純な介入さえも、それを大幅に減らすことができる。
論文 参考訳(メタデータ) (2024-09-17T01:37:57Z) - Going Beyond Popularity and Positivity Bias: Correcting for Multifactorial Bias in Recommender Systems [74.47680026838128]
ユーザインタラクションデータとレコメンダシステム(RS)の2つの典型的なバイアスは、人気バイアスと肯定バイアスである。
項目と評価値の双方に影響される多因子選択バイアスについて検討する。
分散を低減し、最適化の堅牢性を向上させるため、スムースで交互に勾配降下する手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T12:18:21Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Consumer-side Fairness in Recommender Systems: A Systematic Survey of
Methods and Evaluation [1.4123323039043334]
機械学習手法における差別意識の高まりは、学界と産業の両方を動機付け、レコメンデーションシステムにおける公正性の確保について研究した。
推薦制度では、そのような問題は職業推薦によってよく例示されており、歴史的データの偏見は、1つの性別から低い賃金、あるいはステレオタイプの普及に関する推薦制度につながる可能性がある。
本調査は、リコメンデーションシステムにおける消費者側の公正性に関する現在の研究の体系的概要と議論である。
論文 参考訳(メタデータ) (2023-05-16T10:07:41Z) - Whole Page Unbiased Learning to Rank [59.52040055543542]
アンバイアスド・ラーニング・トゥ・ランク(ULTR)アルゴリズムは、バイアスド・クリックデータを用いたアンバイアスド・ランキングモデルを学ぶために提案される。
本稿では,BALというアルゴリズムをランク付けするバイアス非依存学習を提案する。
実世界のデータセットによる実験結果から,BALの有効性が検証された。
論文 参考訳(メタデータ) (2022-10-19T16:53:08Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Correcting the User Feedback-Loop Bias for Recommendation Systems [34.44834423714441]
本稿では,レコメンデーションシステムにおいて,ユーザのフィードバックループバイアスを修正するための系統的かつ動的手法を提案する。
本手法は,各ユーザの動的評価履歴の埋め込みを学習するためのディープラーニングコンポーネントを含む。
実世界のレコメンデーションシステムにおけるユーザフィードバックループバイアスの存在を実証的に検証した。
論文 参考訳(メタデータ) (2021-09-13T15:02:55Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。