論文の概要: Mitigating Propensity Bias of Large Language Models for Recommender Systems
- arxiv url: http://arxiv.org/abs/2409.20052v1
- Date: Mon, 30 Sep 2024 07:57:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-02 19:42:09.240460
- Title: Mitigating Propensity Bias of Large Language Models for Recommender Systems
- Title(参考訳): リコメンダシステムのための大規模言語モデルの確率バイアスの緩和
- Authors: Guixian Zhang, Guan Yuan, Debo Cheng, Lin Liu, Jiuyong Li, Shichao Zhang,
- Abstract要約: 我々は,CLLMR(Counterfactual LLM Recommendation)という新しいフレームワークを紹介する。
本稿では,歴史的相互作用から得られた構造情報をサイド情報表現に暗黙的に埋め込むスペクトルベースのサイド情報エンコーダを提案する。
我々の CLLMR アプローチは LLM ベースのレコメンデータシステムに固有の因果関係を探索する。
- 参考スコア(独自算出の注目度): 20.823461673845756
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid development of Large Language Models (LLMs) creates new opportunities for recommender systems, especially by exploiting the side information (e.g., descriptions and analyses of items) generated by these models. However, aligning this side information with collaborative information from historical interactions poses significant challenges. The inherent biases within LLMs can skew recommendations, resulting in distorted and potentially unfair user experiences. On the other hand, propensity bias causes side information to be aligned in such a way that it often tends to represent all inputs in a low-dimensional subspace, leading to a phenomenon known as dimensional collapse, which severely restricts the recommender system's ability to capture user preferences and behaviours. To address these issues, we introduce a novel framework named Counterfactual LLM Recommendation (CLLMR). Specifically, we propose a spectrum-based side information encoder that implicitly embeds structural information from historical interactions into the side information representation, thereby circumventing the risk of dimension collapse. Furthermore, our CLLMR approach explores the causal relationships inherent in LLM-based recommender systems. By leveraging counterfactual inference, we counteract the biases introduced by LLMs. Extensive experiments demonstrate that our CLLMR approach consistently enhances the performance of various recommender models.
- Abstract(参考訳): LLM(Large Language Models)の急速な開発は、特にこれらのモデルによって生成された側面情報(例えば、項目の説明や分析)を活用することによって、リコメンデータシステムに新たな機会をもたらす。
しかし、この側面情報を歴史的相互作用からの協調情報と整合させることは、大きな課題となる。
LLM内の固有のバイアスはレコメンデーションを歪め、歪んだり不公平なユーザエクスペリエンスをもたらす可能性がある。
一方、相対性バイアスは、低次元のサブ空間における全ての入力を表現しがちな側情報を整列させ、次元崩壊と呼ばれる現象を招き、ユーザの好みや振る舞いをキャプチャするシステムの能力を著しく制限する。
これらの課題に対処するため,我々はCLLMR(Counterfactual LLM Recommendation)という新しいフレームワークを紹介した。
具体的には、歴史的相互作用から構造情報をサイド情報表現に暗黙的に埋め込むスペクトルベースのサイド情報エンコーダを提案し、それによって次元崩壊のリスクを回避する。
さらに,我々のCLLMRアプローチでは,LLMベースのレコメンデータシステムに固有の因果関係について検討している。
反ファクト推論を利用することで、LLMが導入したバイアスに対処する。
我々のCLLMRアプローチは様々なレコメンデーションモデルの性能を継続的に向上することを示した。
関連論文リスト
- Mirror Gradient: Towards Robust Multimodal Recommender Systems via
Exploring Flat Local Minima [54.06000767038741]
フラットローカルミニマの新しい視点からマルチモーダルリコメンデータシステムの解析を行う。
我々はミラーグラディエント(MG)と呼ばれる簡潔で効果的な勾配戦略を提案する。
提案したMGは、既存の堅牢なトレーニング手法を補完し、多様な高度なレコメンデーションモデルに容易に拡張できることが判明した。
論文 参考訳(メタデータ) (2024-02-17T12:27:30Z) - Empowering Few-Shot Recommender Systems with Large Language Models --
Enhanced Representations [0.0]
大規模言語モデル(LLM)は、明示的なフィードバックベースのレコメンデータシステムで遭遇する少数のシナリオに対処するための、新たな洞察を提供する。
我々の研究は、LLMがレコメンデーターシステムに関わっていることの多面的側面を深く掘り下げるために、研究者に刺激を与えることができる。
論文 参考訳(メタデータ) (2023-12-21T03:50:09Z) - Representation Learning with Large Language Models for Recommendation [34.46344639742642]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Causal Disentangled Variational Auto-Encoder for Preference
Understanding in Recommendation [50.93536377097659]
本稿では,コメンテータシステムにおける対話データから因果不整合表現を学習するためのCaD-VAE(Causal Disentangled Variational Auto-Encoder)を提案する。
この手法は構造因果モデルを用いて、潜在因子間の因果関係を記述する因果表現を生成する。
論文 参考訳(メタデータ) (2023-04-17T00:10:56Z) - Deep Causal Reasoning for Recommendations [47.83224399498504]
推薦システム研究の新たなトレンドは、共同創設者の影響を因果的観点から否定することである。
提案手法は多因性マルチアウトカム(MCMO)推論問題としてモデル化する。
MCMOモデリングは,高次元因果空間に付随する観測が不十分なため,高いばらつきをもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2022-01-06T15:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。