論文の概要: FAST: A Fairness Assured Service Recommendation Strategy Considering
Service Capacity Constraint
- arxiv url: http://arxiv.org/abs/2012.02292v1
- Date: Wed, 2 Dec 2020 12:21:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:42:38.224334
- Title: FAST: A Fairness Assured Service Recommendation Strategy Considering
Service Capacity Constraint
- Title(参考訳): FAST: サービス容量制約を考慮したフェアネス保証サービス推奨戦略
- Authors: Yao Wu, Jian Cao, Guandong Xu
- Abstract要約: 容量制約のあるサービスのマルチラウンドレコメンデーションの個々人の公正度を測定するための新しい尺度Top-N Fairnessを提案する。
この基準に基づいて、フェアネス保証サービス推奨戦略であるFASTを設計する。
- 参考スコア(独自算出の注目度): 11.04686172328167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An excessive number of customers often leads to a degradation in service
quality. However, the capacity constraints of services are ignored by
recommender systems, which may lead to unsatisfactory recommendation. This
problem can be solved by limiting the number of users who receive the
recommendation for a service, but this may be viewed as unfair. In this paper,
we propose a novel metric Top-N Fairness to measure the individual fairness of
multi-round recommendations of services with capacity constraints. By
considering the fact that users are often only affected by top-ranked items in
a recommendation, Top-N Fairness only considers a sub-list consisting of top N
services. Based on the metric, we design FAST, a Fairness Assured service
recommendation STrategy. FAST adjusts the original recommendation list to
provide users with recommendation results that guarantee the long-term fairness
of multi-round recommendations. We prove the convergence property of the
variance of Top-N Fairness of FAST theoretically. FAST is tested on the Yelp
dataset and synthetic datasets. The experimental results show that FAST
achieves better recommendation fairness while still maintaining high
recommendation quality.
- Abstract(参考訳): 過剰な数の顧客がサービス品質の低下につながることが多い。
しかし、サービスのキャパシティ制約はレコメンデーションシステムによって無視されるため、不十分なレコメンデーションにつながる可能性がある。
この問題は、サービスのレコメンデーションを受けるユーザ数を制限することで解決できるが、これは不公平と見なすこともできる。
本稿では,容量制約のあるサービスに対するマルチラウンドレコメンデーションの個々人の公正度を測定するための,新しい尺度Top-N Fairnessを提案する。
ユーザーがレコメンデーションでトップランクのアイテムにしか影響されないという事実を考慮すると、トップNフェアネスはトップNサービスからなるサブリストのみを考える。
この基準に基づいて、フェアネス保証サービス推奨戦略であるFASTを設計する。
FASTはオリジナルのレコメンデーションリストを調整し、マルチラウンドレコメンデーションの長期的な公正性を保証するレコメンデーション結果を提供する。
FASTのTop-Nフェアネスの分散の収束特性を理論的に証明する。
FASTはYelpデータセットと合成データセットでテストされる。
実験の結果、fastは高い推奨品質を維持しながら、より良い推奨公平性を達成できることがわかった。
関連論文リスト
- PDSR: A Privacy-Preserving Diversified Service Recommendation Method on Distributed Data [28.707528543904573]
協調フィルタリングは、サービスレコメンデーションの最も一般的な方法の1つであり、既存の提案の多くは、レコメンデーションの正確性を改善することに焦点を当てている。
そこで我々は,新しい精度多様性尺度を提案し,精度多様性尺度を最大化して推奨する$K$サービスを選択するために2ドル近似を設計する。
論文 参考訳(メタデータ) (2024-08-28T10:25:36Z) - FEIR: Quantifying and Reducing Envy and Inferiority for Fair
Recommendation of Limited Resources [16.63528071283896]
e-recruitmentとオンラインデートでは、リコメンデーションは限られた機会を分散し、フェアネスを定量化し強制するための新しいアプローチを要求する。
本稿では,推奨項目に対するユーザの競争上の不利を定量化する,新規な(不公平な)フェールネス尺度である outhinferiority を紹介する。
関連度スコアの精度関連尺度であるエンフェイティティ(enmphutility)と、劣等性とエンビー(envy)を組み合わせた。
論文 参考訳(メタデータ) (2023-11-08T09:17:47Z) - Is ChatGPT Fair for Recommendation? Evaluating Fairness in Large
Language Model Recommendation [52.62492168507781]
LLM(FaiRLLM)を用いたFairness of Recommendationと呼ばれる新しいベンチマークを提案する。
このベンチマークは、慎重に作成されたメトリクスと、8つの機密属性を考慮に入れたデータセットで構成されている。
FaiRLLMベンチマークを用いて、ChatGPTの評価を行い、レコメンデーションを生成する際には、いくつかの機密属性に対して不公平であることがわかった。
論文 参考訳(メタデータ) (2023-05-12T16:54:36Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - The Unfairness of Active Users and Popularity Bias in Point-of-Interest
Recommendation [4.578469978594752]
本稿では, (i) アクティブユーザの不公平さ, (ii) 人気項目の不公平さ, (iii) 調査三角形の3つの角度として推薦の精度について検討する。
アイテムフェアネスでは、アイテムをショートヘッド、ミッドテール、ロングテールグループに分割し、これらのアイテムグループの露出をユーザのトップkレコメンデーションリストにまとめる。
本研究は, 消費者と生産者の公正性を両立させることができず, 自然バイアスが原因と考えられる変数間のトレードオフが示唆されている。
論文 参考訳(メタデータ) (2022-02-27T08:02:19Z) - FEBR: Expert-Based Recommendation Framework for beneficial and
personalized content [77.86290991564829]
推奨コンテンツの質を評価するための見習い学習フレームワークであるFEBR(Expert-Based Recommendation Framework)を提案する。
このフレームワークは、推奨評価環境において専門家(信頼できると仮定される)の実証された軌跡を利用して、未知のユーティリティ機能を回復する。
ユーザ関心シミュレーション環境(RecSim)によるソリューションの性能評価を行う。
論文 参考訳(メタデータ) (2021-07-17T18:21:31Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - User-oriented Fairness in Recommendation [21.651482297198687]
我々は,レコメンダシステムにおける不公平性問題に対して,ユーザの視点から対処する。
ユーザの行動レベルに応じて、有利で不利なグループにグループ化します。
提案手法は,レコメンデーションシステムにおけるユーザのグループ公平性を向上するだけでなく,全体的なレコメンデーション性能も向上する。
論文 参考訳(メタデータ) (2021-04-21T17:50:31Z) - TFROM: A Two-sided Fairness-Aware Recommendation Model for Both
Customers and Providers [10.112208859874618]
私たちは、顧客とプロバイダーの両方のための両面公平性認識推奨モデル(TFROM)を設計します。
実験では、TFROMはベースラインアルゴリズムよりも高いレベルのパーソナライゼーションを維持しながら、より良い両面公平性を提供する。
論文 参考訳(メタデータ) (2021-04-19T02:46:54Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。