論文の概要: Experiments on Generalizability of User-Oriented Fairness in Recommender
Systems
- arxiv url: http://arxiv.org/abs/2205.08289v1
- Date: Tue, 17 May 2022 12:36:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 18:37:16.662048
- Title: Experiments on Generalizability of User-Oriented Fairness in Recommender
Systems
- Title(参考訳): リコメンダシステムにおけるユーザ指向フェアネスの一般化に関する実験
- Authors: Hossein A. Rahmani, Mohammadmehdi Naghiaei, Mahdi Dehghan, Mohammad
Aliannejadi
- Abstract要約: 公正を意識した推薦システムは、異なるユーザーグループを同様に扱うことを目的としている。
本稿では,ユーザ中心の公平度を再評価するフレームワークを提案する。
我々は、ユーザ(NDCGなど)とアイテム(新規性、アイテムフェアネスなど)の両方から、フレームワークの再ランク付けによる最終的なレコメンデーションを評価する。
- 参考スコア(独自算出の注目度): 2.0932879442844476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work in recommender systems mainly focuses on fairness in
recommendations as an important aspect of measuring recommendations quality. A
fairness-aware recommender system aims to treat different user groups
similarly. Relevant work on user-oriented fairness highlights the
discriminative behavior of fairness-unaware recommendation algorithms towards a
certain user group, defined based on users' activity level. Typical solutions
include proposing a user-centered fairness re-ranking framework applied on top
of a base ranking model to mitigate its unfair behavior towards a certain user
group i.e., disadvantaged group. In this paper, we re-produce a user-oriented
fairness study and provide extensive experiments to analyze the dependency of
their proposed method on various fairness and recommendation aspects, including
the recommendation domain, nature of the base ranking model, and user grouping
method. Moreover, we evaluate the final recommendations provided by the
re-ranking framework from both user- (e.g., NDCG, user-fairness) and item-side
(e.g., novelty, item-fairness) metrics. We discover interesting trends and
trade-offs between the model's performance in terms of different evaluation
metrics. For instance, we see that the definition of the
advantaged/disadvantaged user groups plays a crucial role in the effectiveness
of the fairness algorithm and how it improves the performance of specific base
ranking models. Finally, we highlight some important open challenges and future
directions in this field. We release the data, evaluation pipeline, and the
trained models publicly on https://github.com/rahmanidashti/FairRecSys.
- Abstract(参考訳): 近年のレコメンデーションシステムにおける研究は、主にレコメンデーションの品質を測定する重要な側面として、レコメンデーションの公平性に焦点を当てている。
fairness-aware recommenderシステムは、異なるユーザーグループを同じように扱うことを目的としている。
ユーザ指向フェアネスに関する関連研究は、ユーザアクティビティレベルに基づいて定義された特定のユーザグループに対するフェアネスを意識しない推奨アルゴリズムの差別的行動を強調している。
典型的な解決策には、特定のユーザーグループ、すなわち不利なグループに対する不公平な行動を軽減するために、ベースランキングモデルの上にユーザ中心の公平な再ランク付けフレームワークを提案することが含まれる。
本稿では,ユーザ指向フェアネス研究を再現し,提案手法のレコメンデーションドメイン,ベースランキングモデルの性質,ユーザグループ化手法など,様々なフェアネスとレコメンデーションの側面に対する依存性を分析するための広範な実験を行う。
さらに,ユーザ(ndcg,ユーザフェアネスなど)と項目(新規性,アイテムフェアネスなど)の両方から,再ランキングフレームワークによって提供される最終推奨項目を評価する。
我々は、異なる評価指標の観点から、モデルのパフォーマンスの興味深い傾向とトレードオフを見つける。
例えば、有利/不便なユーザグループの定義は、公平性アルゴリズムの有効性と、それが特定のベースランキングモデルの性能に与える影響において重要な役割を果たす。
最後に、この分野で重要なオープンチャレンジと今後の方向性を紹介します。
データ、評価パイプライン、トレーニングされたモデルをhttps://github.com/rahmanidashti/fairrecsysで公開しています。
関連論文リスト
- Learning Recommender Systems with Soft Target: A Decoupled Perspective [49.83787742587449]
そこで本研究では,ソフトラベルを活用することで,目的を2つの側面として捉えるために,分離されたソフトラベル最適化フレームワークを提案する。
本稿では,ラベル伝搬アルゴリズムをモデル化したソフトラベル生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-09T04:20:15Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Equal Experience in Recommender Systems [21.298427869586686]
我々は、バイアスデータの存在下で不公平を規制するために、新しい公正の概念(平等な経験と呼ぶ)を導入する。
本稿では、正規化項としての公正性の概念を取り入れた最適化フレームワークを提案し、最適化を解く計算効率の良いアルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-10-12T05:53:05Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - The Unfairness of Active Users and Popularity Bias in Point-of-Interest
Recommendation [4.578469978594752]
本稿では, (i) アクティブユーザの不公平さ, (ii) 人気項目の不公平さ, (iii) 調査三角形の3つの角度として推薦の精度について検討する。
アイテムフェアネスでは、アイテムをショートヘッド、ミッドテール、ロングテールグループに分割し、これらのアイテムグループの露出をユーザのトップkレコメンデーションリストにまとめる。
本研究は, 消費者と生産者の公正性を両立させることができず, 自然バイアスが原因と考えられる変数間のトレードオフが示唆されている。
論文 参考訳(メタデータ) (2022-02-27T08:02:19Z) - Towards Personalized Fairness based on Causal Notion [18.5897206797918]
本稿では,逆学習による対実的公正なレコメンデーションを実現するための枠組みを提案する。
提案手法は,推奨性能の高いユーザに対して,より公平なレコメンデーションを生成できる。
論文 参考訳(メタデータ) (2021-05-20T15:24:34Z) - User-oriented Fairness in Recommendation [21.651482297198687]
我々は,レコメンダシステムにおける不公平性問題に対して,ユーザの視点から対処する。
ユーザの行動レベルに応じて、有利で不利なグループにグループ化します。
提案手法は,レコメンデーションシステムにおけるユーザのグループ公平性を向上するだけでなく,全体的なレコメンデーション性能も向上する。
論文 参考訳(メタデータ) (2021-04-21T17:50:31Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。