論文の概要: Equal Experience in Recommender Systems
- arxiv url: http://arxiv.org/abs/2210.05936v1
- Date: Wed, 12 Oct 2022 05:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 13:34:47.184282
- Title: Equal Experience in Recommender Systems
- Title(参考訳): レコメンダシステムにおける平等な経験
- Authors: Jaewoong Cho, Moonseok Choi, Changho Suh
- Abstract要約: 我々は、バイアスデータの存在下で不公平を規制するために、新しい公正の概念(平等な経験と呼ぶ)を導入する。
本稿では、正規化項としての公正性の概念を取り入れた最適化フレームワークを提案し、最適化を解く計算効率の良いアルゴリズムを導入する。
- 参考スコア(独自算出の注目度): 21.298427869586686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore the fairness issue that arises in recommender systems. Biased data
due to inherent stereotypes of particular groups (e.g., male students' average
rating on mathematics is often higher than that on humanities, and vice versa
for females) may yield a limited scope of suggested items to a certain group of
users. Our main contribution lies in the introduction of a novel fairness
notion (that we call equal experience), which can serve to regulate such
unfairness in the presence of biased data. The notion captures the degree of
the equal experience of item recommendations across distinct groups. We propose
an optimization framework that incorporates the fairness notion as a
regularization term, as well as introduce computationally-efficient algorithms
that solve the optimization. Experiments on synthetic and benchmark real
datasets demonstrate that the proposed framework can indeed mitigate such
unfairness while exhibiting a minor degradation of recommendation accuracy.
- Abstract(参考訳): 推薦システムで発生する公平性の問題について検討する。
特定のグループの固有のステレオタイプによる偏りのあるデータ(例えば、男子学生の数学に対する評価は、しばしば人文科学のそれよりも高く、女子の場合はその逆である)は、特定のグループに対して推奨される項目の範囲を限定する可能性がある。
私たちの主な貢献は、バイアスデータの存在下でこのような不公平を規制する、新しい公正の概念(平等な経験と呼ぶ)の導入にあります。
この概念は、異なるグループ間でアイテムレコメンデーションの平等な経験の程度を捉えている。
本稿では,正則化項としてフェアネス概念を組み込んだ最適化フレームワークを提案し,最適化を解く計算効率の高いアルゴリズムを提案する。
合成およびベンチマークの実データセットに関する実験は、提案手法が推薦精度の小さな低下を示す一方で、そのような不公平さを実際に軽減できることを示している。
関連論文リスト
- Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Experiments on Generalizability of User-Oriented Fairness in Recommender
Systems [2.0932879442844476]
公正を意識した推薦システムは、異なるユーザーグループを同様に扱うことを目的としている。
本稿では,ユーザ中心の公平度を再評価するフレームワークを提案する。
我々は、ユーザ(NDCGなど)とアイテム(新規性、アイテムフェアネスなど)の両方から、フレームワークの再ランク付けによる最終的なレコメンデーションを評価する。
論文 参考訳(メタデータ) (2022-05-17T12:36:30Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - User-oriented Fairness in Recommendation [21.651482297198687]
我々は,レコメンダシステムにおける不公平性問題に対して,ユーザの視点から対処する。
ユーザの行動レベルに応じて、有利で不利なグループにグループ化します。
提案手法は,レコメンデーションシステムにおけるユーザのグループ公平性を向上するだけでなく,全体的なレコメンデーション性能も向上する。
論文 参考訳(メタデータ) (2021-04-21T17:50:31Z) - Achieving Fairness via Post-Processing in Web-Scale Recommender Systems [6.5191290612443105]
フェアネスの定義を推薦システム、すなわち機会の等式と等化確率に拡張する。
そこで我々は,位置バイアスの存在下でのランク付けにおける機会の平等と確率の等化を達成するためのスケーラブルな手法を提案する。
論文 参考訳(メタデータ) (2020-06-19T20:12:13Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。