論文の概要: Prompt-Based LLMs for Position Bias-Aware Reranking in Personalized Recommendations
- arxiv url: http://arxiv.org/abs/2505.04948v1
- Date: Thu, 08 May 2025 05:01:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.747864
- Title: Prompt-Based LLMs for Position Bias-Aware Reranking in Personalized Recommendations
- Title(参考訳): パーソナライズされたレコメンデーションにおける位置バイアス認識のためのプロンプト型LCM
- Authors: Md Aminul Islam, Ahmed Sayeed Faruk,
- Abstract要約: 大規模言語モデル(LLM)は、プロンプトベースのレコメンデーションに採用されている。
LLMは、限られたコンテキストウィンドウサイズ、非効率なポイントワイドおよびペアワイドプロンプト、リストワイドランキングの扱いの難しさといった制限に直面している。
本稿では,従来のレコメンデーションモデルとLLMを組み合わせたハイブリッドフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommender systems are essential for delivering personalized content across digital platforms by modeling user preferences and behaviors. Recently, large language models (LLMs) have been adopted for prompt-based recommendation due to their ability to generate personalized outputs without task-specific training. However, LLM-based methods face limitations such as limited context window size, inefficient pointwise and pairwise prompting, and difficulty handling listwise ranking due to token constraints. LLMs can also be sensitive to position bias, as they may overemphasize earlier items in the prompt regardless of their true relevance. To address and investigate these issues, we propose a hybrid framework that combines a traditional recommendation model with an LLM for reranking top-k items using structured prompts. We evaluate the effects of user history reordering and instructional prompts for mitigating position bias. Experiments on MovieLens-100K show that randomizing user history improves ranking quality, but LLM-based reranking does not outperform the base model. Explicit instructions to reduce position bias are also ineffective. Our evaluations reveal limitations in LLMs' ability to model ranking context and mitigate bias. Our code is publicly available at https://github.com/aminul7506/LLMForReRanking.
- Abstract(参考訳): レコメンダシステムは、ユーザの好みや振る舞いをモデル化することによって、デジタルプラットフォーム全体でパーソナライズされたコンテンツを配信するために不可欠である。
近年,タスク固有のトレーニングを使わずにパーソナライズされたアウトプットを生成する能力から,プロンプトベースのレコメンデーションに大規模言語モデル(LLM)が採用されている。
しかし、LLMベースの手法では、コンテキストウィンドウサイズが制限されたり、ポイントワイドとペアワイドのプロンプトが非効率であったり、トークン制約によるリストワイドランキングの扱いが困難であったりといった制限に直面している。
LLMは位置バイアスにも敏感であり、それらの真の関連性に関係なく、プロンプトの前の項目を過度に強調する可能性がある。
これらの問題に対処し,検討するために,構造化プロンプトを用いてトップk項目を再ランク付けするLLMと,従来のレコメンデーションモデルを組み合わせたハイブリッドフレームワークを提案する。
位置バイアス軽減のためのユーザ履歴のリオーダーと指導的プロンプトの効果を評価する。
MovieLens-100Kの実験では、ユーザ履歴のランダム化はランキング品質を改善するが、LLMベースのリランクはベースモデルを上回るものではない。
位置バイアスを減らすための明示的な指示も効果がない。
評価の結果,LLMがランキングコンテキストをモデル化し,バイアスを軽減する能力の限界が明らかになった。
私たちのコードはhttps://github.com/aminul7506/LLMForReRankingで公開されています。
関連論文リスト
- Towards Next-Generation Recommender Systems: A Benchmark for Personalized Recommendation Assistant with LLMs [38.83854553636802]
大規模言語モデル(LLM)はRecSysの基礎アーキテクチャに革命をもたらした。
既存の研究の多くは、リコメンデーションを生成するための固定されたタスク固有のプロンプトテンプレートに依存している。
これは、一般的に使用されるデータセットには、現実世界のレコメンデーションシナリオを反映した高品質なテキストユーザークエリがないためである。
我々は、複雑なユーザレコメンデーションニーズを処理するLLMの能力にアクセスするために設計された新しいデータセットであるRecBench+を紹介する。
論文 参考訳(メタデータ) (2025-03-12T13:28:23Z) - LLM Self-Correction with DeCRIM: Decompose, Critique, and Refine for Enhanced Following of Instructions with Multiple Constraints [86.59857711385833]
実世界のマルチ制約命令に従うLLMの能力を評価するために設計された最初のベンチマークであるRealInstructを紹介する。
オープンソースモデルとプロプライエタリモデルのパフォーマンスギャップを解決するため,Decompose, Critique and Refine(DeCRIM)自己補正パイプラインを提案する。
この結果から,DeCRIMはフィードバックが弱い場合でも,RealInstructでは7.3%,IFEvalでは8.0%,Mistralでは7.3%向上した。
論文 参考訳(メタデータ) (2024-10-09T01:25:10Z) - Aligning Language Models with Demonstrated Feedback [58.834937450242975]
Demonstration ITerated Task Optimization (DITTO)は、言語モデルの出力とユーザの実証された振る舞いを直接調整する。
我々は,DITTOがニュース記事やメール,ブログ記事などのドメイン間できめ細かいスタイルやタスクアライメントを学習する能力を評価する。
論文 参考訳(メタデータ) (2024-06-02T23:13:56Z) - LiPO: Listwise Preference Optimization through Learning-to-Rank [62.02782819559389]
ポリシーは、プロンプトによってランク付けされた妥当な応答のリストからより効果的に学習することができる。
LiPO-$lambda$ は DPO 変種と SLiC をいくつかの選好アライメントタスクにおいて明確なマージンで上回ることを示す。
論文 参考訳(メタデータ) (2024-02-02T20:08:10Z) - Large Language Models are Zero-Shot Rankers for Recommender Systems [76.02500186203929]
本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
論文 参考訳(メタデータ) (2023-05-15T17:57:39Z) - PALR: Personalization Aware LLMs for Recommendation [7.407353565043918]
PALRは、ユーザ履歴の振る舞い(クリック、購入、評価など)と大きな言語モデル(LLM)を組み合わせることで、ユーザの好むアイテムを生成することを目的としている。
我々のソリューションは、様々なシーケンシャルなレコメンデーションタスクにおいて最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-12T17:21:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。