論文の概要: UP5: Unbiased Foundation Model for Fairness-aware Recommendation
- arxiv url: http://arxiv.org/abs/2305.12090v1
- Date: Sat, 20 May 2023 04:32:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 00:45:59.690935
- Title: UP5: Unbiased Foundation Model for Fairness-aware Recommendation
- Title(参考訳): UP5:Fairness-Aware RecommendationのためのUnbiased Foundation Model
- Authors: Wenyue Hua, Yingqiang Ge, Shuyuan Xu, Jianchao Ji, Yongfeng Zhang
- Abstract要約: 本稿では,非現実的Fair-Prompting技術に基づく新しいUnbiased P5(UP5)基盤モデルを提案する。
MovieLens-1M と Insurance の2つの実世界のデータセットで実験が行われた。
その結果、マッチングベースとシーケンシャルベースのフェアネスアウェアレコメンデーションモデルを比較した。
- 参考スコア(独自算出の注目度): 37.85639356354137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in foundation models such as large language models (LLM)
have propelled them to the forefront of recommender systems (RS). Moreover,
fairness in RS is critical since many users apply it for decision-making and
demand fulfillment. However, at present, there is a lack of understanding
regarding the level of fairness exhibited by recommendation foundation models
and the appropriate methods for equitably treating different groups of users in
foundation models. In this paper, we focus on user-side unfairness problem and
show through a thorough examination that there is unfairness involved in LLMs
that lead to unfair recommendation results. To eliminate bias from LLM for
fairness-aware recommendation, we introduce a novel Unbiased P5 (UP5)
foundation model based on Counterfactually-Fair-Prompting (CFP) techniques. CFP
includes two sub-modules: a personalized prefix prompt that enhances fairness
with respect to individual sensitive attributes, and a Prompt Mixture that
integrates multiple counterfactually-fair prompts for a set of sensitive
attributes. Experiments are conducted on two real-world datasets, MovieLens-1M
and Insurance, and results are compared with both matching-based and
sequential-based fairness-aware recommendation models. The results show that
UP5 achieves better recommendation performance and meanwhile exhibits a high
level of fairness.
- Abstract(参考訳): 大規模言語モデル (LLM) のような基礎モデルの最近の進歩は、それらをレコメンデーターシステム (RS) の最前線に押し上げている。
さらに,多くのユーザが意思決定や需要達成に利用しているため,RSの公平性が重要である。
しかし、現在では、推薦基礎モデルによって提示される公平さのレベルと、基礎モデルにおける異なるユーザグループを公平に扱うための適切な方法に関する理解が欠如している。
本稿では,ユーザ側の不公平性問題に焦点をあて,不公平なレコメンデーション結果につながるLCMに不公平が関与していることを示す。
フェアネス・アウェア・レコメンデーションのためのLCMからのバイアスを排除するため,CFP技術に基づく新しいUnbiased P5(UP5)基盤モデルを提案する。
CFPには2つのサブモジュールが含まれており、個々の機密属性に対する公平性を高めるパーソナライズされたプレフィックスプロンプトと、一連の機密属性に対して複数の偽フェアプロンプトを統合するPrompt Mixtureがある。
movielens-1m と insurance の2つの実世界のデータセットで実験を行い、その結果をマッチングベースとシーケンシャルベースの両方のフェアネス・アウェア・レコメンデーションモデルと比較した。
その結果、UP5はより優れたレコメンデーション性能を示し、一方で高い公平度を示すことがわかった。
関連論文リスト
- Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - Multi-dimensional Fair Federated Learning [25.07463977553212]
フェデレートラーニング(FL)は、分散データからモデルをトレーニングするための、有望な協調的でセキュアなパラダイムとして登場した。
群フェアネスとクライアントフェアネスは、FLにとって重要である2次元のフェアネスである。
グループフェアネスとクライアントフェアネスを同時に達成するために,mFairFLと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-12-09T11:37:30Z) - In-processing User Constrained Dominant Sets for User-Oriented Fairness
in Recommender Systems [23.48974802023629]
In-processing User Constrained Dominant Sets (In-UCDS) framework to achieve user-oriented fairness。
In-UCDSは最先端の手法よりも優れており、全体的なレコメンデーション性能が向上したより公平なモデルとなっている。
論文 参考訳(メタデータ) (2023-09-04T03:34:54Z) - Is ChatGPT Fair for Recommendation? Evaluating Fairness in Large
Language Model Recommendation [52.62492168507781]
LLM(FaiRLLM)を用いたFairness of Recommendationと呼ばれる新しいベンチマークを提案する。
このベンチマークは、慎重に作成されたメトリクスと、8つの機密属性を考慮に入れたデータセットで構成されている。
FaiRLLMベンチマークを用いて、ChatGPTの評価を行い、レコメンデーションを生成する際には、いくつかの機密属性に対して不公平であることがわかった。
論文 参考訳(メタデータ) (2023-05-12T16:54:36Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Track2Vec: fairness music recommendation with a GPU-free
customizable-driven framework [6.2405734957622245]
Track2Vecは、公正な音楽レコメンデーションのためのGPUフリーのカスタマイズ可能なフレームワークである。
公平度を測定するために,ミスレート-逆地中真実周波数(MR-ITF)と呼ばれる測定基準を導入する。
EvalRS @ CIKM 2022チャレンジでは,GPUフリー環境での価格ランキングを4位に引き上げている。
論文 参考訳(メタデータ) (2022-10-29T12:53:09Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - The Unfairness of Active Users and Popularity Bias in Point-of-Interest
Recommendation [4.578469978594752]
本稿では, (i) アクティブユーザの不公平さ, (ii) 人気項目の不公平さ, (iii) 調査三角形の3つの角度として推薦の精度について検討する。
アイテムフェアネスでは、アイテムをショートヘッド、ミッドテール、ロングテールグループに分割し、これらのアイテムグループの露出をユーザのトップkレコメンデーションリストにまとめる。
本研究は, 消費者と生産者の公正性を両立させることができず, 自然バイアスが原因と考えられる変数間のトレードオフが示唆されている。
論文 参考訳(メタデータ) (2022-02-27T08:02:19Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。