論文の概要: TFROM: A Two-sided Fairness-Aware Recommendation Model for Both
Customers and Providers
- arxiv url: http://arxiv.org/abs/2104.09024v1
- Date: Mon, 19 Apr 2021 02:46:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:01:50.091624
- Title: TFROM: A Two-sided Fairness-Aware Recommendation Model for Both
Customers and Providers
- Title(参考訳): tfrom: 顧客とプロバイダの両方に対する、公平さを意識したレコメンデーションモデル
- Authors: Yao Wu and Jian Cao and Guandong Xu and Yudong Tan
- Abstract要約: 私たちは、顧客とプロバイダーの両方のための両面公平性認識推奨モデル(TFROM)を設計します。
実験では、TFROMはベースラインアルゴリズムよりも高いレベルのパーソナライゼーションを維持しながら、より良い両面公平性を提供する。
- 参考スコア(独自算出の注目度): 10.112208859874618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: At present, most research on the fairness of recommender systems is conducted
either from the perspective of customers or from the perspective of product (or
service) providers. However, such a practice ignores the fact that when
fairness is guaranteed to one side, the fairness and rights of the other side
are likely to reduce. In this paper, we consider recommendation scenarios from
the perspective of two sides (customers and providers). From the perspective of
providers, we consider the fairness of the providers' exposure in recommender
system. For customers, we consider the fairness of the reduced quality of
recommendation results due to the introduction of fairness measures. We
theoretically analyzed the relationship between recommendation quality,
customers fairness, and provider fairness, and design a two-sided
fairness-aware recommendation model (TFROM) for both customers and providers.
Specifically, we design two versions of TFROM for offline and online
recommendation. The effectiveness of the model is verified on three real-world
data sets. The experimental results show that TFROM provides better two-sided
fairness while still maintaining a higher level of personalization than the
baseline algorithms.
- Abstract(参考訳): 現在、レコメンダシステムの公平性に関するほとんどの研究は、顧客の観点からも、あるいは製品(またはサービス)プロバイダの観点からも行われている。
しかし、一方の面に公正が保証された場合、他方の面の公平性と権利が減少する可能性が高いという事実を無視している。
本稿では,2つの側面(顧客と提供者)の観点から,レコメンデーションシナリオについて考察する。
プロバイダの観点からは,プロバイダのレコメンデーションシステムにおける露出の公平性を考慮する。
顧客にとって、公正度対策の導入による推奨結果の品質低下の公平性を考慮する。
提案手法は,推奨品質,顧客フェアネス,提供者フェアネスの関係を理論的に分析し,顧客と提供者の両方に対して二面的フェアネス・アウェア・レコメンデーション・モデル(TFROM)を設計する。
具体的には、オフラインおよびオンラインレコメンデーションのためのTFROMの2つのバージョンを設計する。
モデルの有効性を実世界の3つのデータセットで検証する。
実験の結果,TFROMはベースラインアルゴリズムよりも高いパーソナライズレベルを維持しつつ,両面の公平性を向上することが示された。
関連論文リスト
- FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - CPFair: Personalized Consumer and Producer Fairness Re-ranking for
Recommender Systems [5.145741425164946]
本稿では,消費者側と生産側の両方から公平性制約をシームレスに統合する最適化に基づく再ランク付け手法を提案する。
提案手法は, 消費者と生産者の公正性を両立させ, 全体的な推奨品質を低下させることなく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-17T20:38:02Z) - The Unfairness of Active Users and Popularity Bias in Point-of-Interest
Recommendation [4.578469978594752]
本稿では, (i) アクティブユーザの不公平さ, (ii) 人気項目の不公平さ, (iii) 調査三角形の3つの角度として推薦の精度について検討する。
アイテムフェアネスでは、アイテムをショートヘッド、ミッドテール、ロングテールグループに分割し、これらのアイテムグループの露出をユーザのトップkレコメンデーションリストにまとめる。
本研究は, 消費者と生産者の公正性を両立させることができず, 自然バイアスが原因と考えられる変数間のトレードオフが示唆されている。
論文 参考訳(メタデータ) (2022-02-27T08:02:19Z) - Towards Fair Recommendation in Two-Sided Platforms [36.35034531426411]
特定不可能な商品を適切に配置する問題の制約されたバージョンに対して、公平にパーソナライズされたレコメンデーション問題を提案する。
提案した em FairRec アルゴリズムは,生産者への露出の Maxi-Min Share (alpha$-MMS) を保証し,顧客には Envy-Free to One Item (EF1) を付与する。
論文 参考訳(メタデータ) (2021-12-26T05:14:56Z) - A Graph-based Approach for Mitigating Multi-sided Exposure Bias in
Recommender Systems [7.3129791870997085]
FairMatchは、アイテムやサプライヤーの露出公正性を改善するグラフベースのアルゴリズムである。
2つのデータセットに関する包括的な実験と最先端のベースラインとの比較により、FairMatchは露出公正性と集約多様性を大幅に改善する一方で、レコメンデーションの許容レベルを維持している。
論文 参考訳(メタデータ) (2021-07-07T18:01:26Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - FairRec: Two-Sided Fairness for Personalized Recommendations in
Two-Sided Platforms [36.35034531426411]
両面のオンラインプラットフォームにおけるフェアレコメンデーションの問題について検討する。
当社のアプローチでは、公正な推奨問題の新たなマッピングと、特定不可能な商品をかなり割当する問題の制約付きのバージョンが関係している。
提案したFairRecアルゴリズムは、ほとんどの生産者に対して少なくともマクシミン・シェア(MMS)の露出を保証し、すべての顧客に対してEvy-Free to Oneアイテム(EF1)のフェアネスを保証します。
論文 参考訳(メタデータ) (2020-02-25T09:43:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。