論文の概要: UP5: Unbiased Foundation Model for Fairness-aware Recommendation
- arxiv url: http://arxiv.org/abs/2305.12090v1
- Date: Sat, 20 May 2023 04:32:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 00:45:59.690935
- Title: UP5: Unbiased Foundation Model for Fairness-aware Recommendation
- Title(参考訳): UP5:Fairness-Aware RecommendationのためのUnbiased Foundation Model
- Authors: Wenyue Hua, Yingqiang Ge, Shuyuan Xu, Jianchao Ji, Yongfeng Zhang
- Abstract要約: 本稿では,非現実的Fair-Prompting技術に基づく新しいUnbiased P5(UP5)基盤モデルを提案する。
MovieLens-1M と Insurance の2つの実世界のデータセットで実験が行われた。
その結果、マッチングベースとシーケンシャルベースのフェアネスアウェアレコメンデーションモデルを比較した。
- 参考スコア(独自算出の注目度): 37.85639356354137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in foundation models such as large language models (LLM)
have propelled them to the forefront of recommender systems (RS). Moreover,
fairness in RS is critical since many users apply it for decision-making and
demand fulfillment. However, at present, there is a lack of understanding
regarding the level of fairness exhibited by recommendation foundation models
and the appropriate methods for equitably treating different groups of users in
foundation models. In this paper, we focus on user-side unfairness problem and
show through a thorough examination that there is unfairness involved in LLMs
that lead to unfair recommendation results. To eliminate bias from LLM for
fairness-aware recommendation, we introduce a novel Unbiased P5 (UP5)
foundation model based on Counterfactually-Fair-Prompting (CFP) techniques. CFP
includes two sub-modules: a personalized prefix prompt that enhances fairness
with respect to individual sensitive attributes, and a Prompt Mixture that
integrates multiple counterfactually-fair prompts for a set of sensitive
attributes. Experiments are conducted on two real-world datasets, MovieLens-1M
and Insurance, and results are compared with both matching-based and
sequential-based fairness-aware recommendation models. The results show that
UP5 achieves better recommendation performance and meanwhile exhibits a high
level of fairness.
- Abstract(参考訳): 大規模言語モデル (LLM) のような基礎モデルの最近の進歩は、それらをレコメンデーターシステム (RS) の最前線に押し上げている。
さらに,多くのユーザが意思決定や需要達成に利用しているため,RSの公平性が重要である。
しかし、現在では、推薦基礎モデルによって提示される公平さのレベルと、基礎モデルにおける異なるユーザグループを公平に扱うための適切な方法に関する理解が欠如している。
本稿では,ユーザ側の不公平性問題に焦点をあて,不公平なレコメンデーション結果につながるLCMに不公平が関与していることを示す。
フェアネス・アウェア・レコメンデーションのためのLCMからのバイアスを排除するため,CFP技術に基づく新しいUnbiased P5(UP5)基盤モデルを提案する。
CFPには2つのサブモジュールが含まれており、個々の機密属性に対する公平性を高めるパーソナライズされたプレフィックスプロンプトと、一連の機密属性に対して複数の偽フェアプロンプトを統合するPrompt Mixtureがある。
movielens-1m と insurance の2つの実世界のデータセットで実験を行い、その結果をマッチングベースとシーケンシャルベースの両方のフェアネス・アウェア・レコメンデーションモデルと比較した。
その結果、UP5はより優れたレコメンデーション性能を示し、一方で高い公平度を示すことがわかった。
関連論文リスト
- STAR: A Simple Training-free Approach for Recommendations using Large Language Models [36.18841135511487]
大規模言語モデル(LLM)の最近の進歩は、レコメンデーションシステム(RecSys)タスクに有望な新しいアプローチを提供する。
LLMを利用するフレームワークを提案し、微調整を必要とせずに様々なレコメンデーションタスクに適用できる。
本手法はHits@10のパフォーマンスが23.8%,Toys and Gamesが37.5%,Sports and Outdoorsが1.8%であった。
論文 参考訳(メタデータ) (2024-10-21T19:34:40Z) - HLLM: Enhancing Sequential Recommendations via Hierarchical Large Language Models for Item and User Modeling [21.495443162191332]
大規模言語モデル(LLM)は様々な分野で顕著な成功を収めており、いくつかの研究がレコメンデーションシステムにおいてその可能性を探求している。
逐次レコメンデーションシステムを強化するために,新しい階層型大規模言語モデル (HLLM) アーキテクチャを提案する。
HLLMは,項目特徴抽出とユーザ関心モデリングの両方に 7B パラメータを利用する構成で,優れたスケーラビリティを実現している。
論文 参考訳(メタデータ) (2024-09-19T13:03:07Z) - On Softmax Direct Preference Optimization for Recommendation [50.896117978746]
そこで我々は,LMをベースとした推奨項目の識別を支援するために,ランキング情報をLMに挿入するソフトマックスDPO(S-DPO)を提案する。
具体的には、ユーザの嗜好データに複数の負を組み込んで、LMベースのレコメンデータに適したDPO損失の代替版を考案する。
論文 参考訳(メタデータ) (2024-06-13T15:16:11Z) - A Normative Framework for Benchmarking Consumer Fairness in Large Language Model Recommender System [9.470545149911072]
本稿では,LCMを利用したリコメンデータシステムにおいて,消費者の公正性をベンチマークするための規範的フレームワークを提案する。
このギャップは公平性に関する任意の結論につながる可能性があると我々は主張する。
MovieLensデータセットの消費者の公正性に関する実験は、年齢ベースの推奨において公平さの偏りを明らかにしている。
論文 参考訳(メタデータ) (2024-05-03T16:25:27Z) - LLMRS: Unlocking Potentials of LLM-Based Recommender Systems for
Software Purchase [0.6597195879147557]
Large Language Models (LLM) は、ユーザクエリを分析するための有望な結果を提供する。
LLMをベースとしたゼロショットレコメンデーションシステムであるLLMRSを提案し,レビュースコアにユーザレビューをエンコードし,ユーザに適したレコメンデーションを生成する。
論文 参考訳(メタデータ) (2024-01-12T16:33:17Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Is ChatGPT Fair for Recommendation? Evaluating Fairness in Large
Language Model Recommendation [52.62492168507781]
LLM(FaiRLLM)を用いたFairness of Recommendationと呼ばれる新しいベンチマークを提案する。
このベンチマークは、慎重に作成されたメトリクスと、8つの機密属性を考慮に入れたデータセットで構成されている。
FaiRLLMベンチマークを用いて、ChatGPTの評価を行い、レコメンデーションを生成する際には、いくつかの機密属性に対して不公平であることがわかった。
論文 参考訳(メタデータ) (2023-05-12T16:54:36Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。