論文の概要: Prompt-Based LLMs for Position Bias-Aware Reranking in Personalized Recommendations
- arxiv url: http://arxiv.org/abs/2505.04948v2
- Date: Tue, 27 May 2025 02:44:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.11139
- Title: Prompt-Based LLMs for Position Bias-Aware Reranking in Personalized Recommendations
- Title(参考訳): パーソナライズされたレコメンデーションにおける位置バイアス認識のためのプロンプト型LCM
- Authors: Md Aminul Islam, Ahmed Sayeed Faruk,
- Abstract要約: 大規模言語モデル(LLM)は、プロンプトベースのレコメンデーションに採用されている。
LLMは、限られたコンテキストウィンドウサイズ、非効率なポイントワイドおよびペアワイドプロンプト、リストワイドランキングの扱いの難しさといった制限に直面している。
本稿では,従来のレコメンデーションモデルとLLMを組み合わせたハイブリッドフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommender systems are essential for delivering personalized content across digital platforms by modeling user preferences and behaviors. Recently, large language models (LLMs) have been adopted for prompt-based recommendation due to their ability to generate personalized outputs without task-specific training. However, LLM-based methods face limitations such as limited context window size, inefficient pointwise and pairwise prompting, and difficulty handling listwise ranking due to token constraints. LLMs can also be sensitive to position bias, as they may overemphasize earlier items in the prompt regardless of their true relevance. To address and investigate these issues, we propose a hybrid framework that combines a traditional recommendation model with an LLM for reranking top-k items using structured prompts. We evaluate the effects of user history reordering and instructional prompts for mitigating position bias. Experiments on MovieLens-100K show that randomizing user history improves ranking quality, but LLM-based reranking does not outperform the base model. Explicit instructions to reduce position bias are also ineffective. Our evaluations reveal limitations in LLMs' ability to model ranking context and mitigate bias. Our code is publicly available at https://github.com/aminul7506/LLMForReRanking.
- Abstract(参考訳): レコメンダシステムは、ユーザの好みや振る舞いをモデル化することによって、デジタルプラットフォーム全体でパーソナライズされたコンテンツを配信するために不可欠である。
近年,タスク固有のトレーニングを使わずにパーソナライズされたアウトプットを生成する能力から,プロンプトベースのレコメンデーションに大規模言語モデル(LLM)が採用されている。
しかし、LLMベースの手法では、コンテキストウィンドウサイズが制限されたり、ポイントワイドとペアワイドのプロンプトが非効率であったり、トークン制約によるリストワイドランキングの扱いが困難であったりといった制限に直面している。
LLMは位置バイアスにも敏感であり、それらの真の関連性に関係なく、プロンプトの前の項目を過度に強調する可能性がある。
これらの問題に対処し,検討するために,構造化プロンプトを用いてトップk項目を再ランク付けするLLMと,従来のレコメンデーションモデルを組み合わせたハイブリッドフレームワークを提案する。
位置バイアス軽減のためのユーザ履歴のリオーダーと指導的プロンプトの効果を評価する。
MovieLens-100Kの実験では、ユーザ履歴のランダム化はランキング品質を改善するが、LLMベースのリランクはベースモデルを上回るものではない。
位置バイアスを減らすための明示的な指示も効果がない。
評価の結果,LLMがランキングコンテキストをモデル化し,バイアスを軽減する能力の限界が明らかになった。
私たちのコードはhttps://github.com/aminul7506/LLMForReRankingで公開されています。
関連論文リスト
- Evaluating Position Bias in Large Language Model Recommendations [3.430780143519032]
大規模言語モデル(LLM)は、リコメンデーションタスクのための汎用ツールとして、ますます研究されている。
LLMをベースとした推薦モデルは位置バイアスに悩まされ、その場合、プロンプト内の候補項目の順序がLLMの推薦に不均等に影響を及ぼす可能性がある。
本稿では,LLMレコメンデーションモデルにおける位置バイアスを軽減するための新たなプロンプト戦略であるRightingをIterative Selection経由で導入する。
論文 参考訳(メタデータ) (2025-08-04T03:30:26Z) - PITA: Preference-Guided Inference-Time Alignment for LLM Post-Training [9.093854840532062]
PITAはLLMのトークン生成に直接好みフィードバックを統合する新しいフレームワークである。
PITAは、微調整をせずに、推論時にトークン確率を変更するための、小さな嗜好に基づくガイダンスポリシーを学習する。
我々は,数学的推論や感情分類など,多種多様なタスクにまたがるPITAを評価する。
論文 参考訳(メタデータ) (2025-07-26T21:46:32Z) - Revisiting Prompt Engineering: A Comprehensive Evaluation for LLM-based Personalized Recommendation [2.3650193864974978]
大規模言語モデル(LLM)は、自然言語で書かれたプロンプトを入力として取り込むことで推奨タスクを実行することができる。
本稿では,他のユーザからの情報を一切使用しない単一ユーザ設定に焦点をあてる。
論文 参考訳(メタデータ) (2025-07-17T20:26:00Z) - Towards Next-Generation Recommender Systems: A Benchmark for Personalized Recommendation Assistant with LLMs [38.83854553636802]
大規模言語モデル(LLM)はRecSysの基礎アーキテクチャに革命をもたらした。
既存の研究の多くは、リコメンデーションを生成するための固定されたタスク固有のプロンプトテンプレートに依存している。
これは、一般的に使用されるデータセットには、現実世界のレコメンデーションシナリオを反映した高品質なテキストユーザークエリがないためである。
我々は、複雑なユーザレコメンデーションニーズを処理するLLMの能力にアクセスするために設計された新しいデータセットであるRecBench+を紹介する。
論文 参考訳(メタデータ) (2025-03-12T13:28:23Z) - LLM Self-Correction with DeCRIM: Decompose, Critique, and Refine for Enhanced Following of Instructions with Multiple Constraints [86.59857711385833]
実世界のマルチ制約命令に従うLLMの能力を評価するために設計された最初のベンチマークであるRealInstructを紹介する。
オープンソースモデルとプロプライエタリモデルのパフォーマンスギャップを解決するため,Decompose, Critique and Refine(DeCRIM)自己補正パイプラインを提案する。
この結果から,DeCRIMはフィードバックが弱い場合でも,RealInstructでは7.3%,IFEvalでは8.0%,Mistralでは7.3%向上した。
論文 参考訳(メタデータ) (2024-10-09T01:25:10Z) - From Yes-Men to Truth-Tellers: Addressing Sycophancy in Large Language Models with Pinpoint Tuning [91.79567270986901]
大規模言語モデル(LLM)は、ユーザプロンプトへの順守を、妥当な応答よりも優先する傾向がある。
近年の研究では、教師付き微調整(SFT)を用いて、梅毒問題を軽減することが提案されている。
そこで本研究では,特定の目的のために関心のあるモジュールを調整した新しいピンポイントチューニング(SPT)を提案する。
論文 参考訳(メタデータ) (2024-09-03T07:01:37Z) - Aligning Language Models with Demonstrated Feedback [58.834937450242975]
Demonstration ITerated Task Optimization (DITTO)は、言語モデルの出力とユーザの実証された振る舞いを直接調整する。
我々は,DITTOがニュース記事やメール,ブログ記事などのドメイン間できめ細かいスタイルやタスクアライメントを学習する能力を評価する。
論文 参考訳(メタデータ) (2024-06-02T23:13:56Z) - LiPO: Listwise Preference Optimization through Learning-to-Rank [62.02782819559389]
ポリシーは、プロンプトによってランク付けされた妥当な応答のリストからより効果的に学習することができる。
LiPO-$lambda$ は DPO 変種と SLiC をいくつかの選好アライメントタスクにおいて明確なマージンで上回ることを示す。
論文 参考訳(メタデータ) (2024-02-02T20:08:10Z) - Tuna: Instruction Tuning using Feedback from Large Language Models [74.04950416204551]
本稿では,新しいテキスト確率的ランキングとテキストコンテクスチュアルランキングを用いた命令調整型大規模言語モデルの微調整を提案する。
確率的ランク付けにより、教師のLCMから高品質で低品質なレスポンスの相対的なランク付けを継承することができる。
一方、文脈的ランキングを学習することで、より強いLLMの文脈的理解能力を用いて、モデルが独自の応答分布を洗練できる。
論文 参考訳(メタデータ) (2023-10-20T09:55:06Z) - Large Language Models are Zero-Shot Rankers for Recommender Systems [76.02500186203929]
本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
論文 参考訳(メタデータ) (2023-05-15T17:57:39Z) - PALR: Personalization Aware LLMs for Recommendation [7.407353565043918]
PALRは、ユーザ履歴の振る舞い(クリック、購入、評価など)と大きな言語モデル(LLM)を組み合わせることで、ユーザの好むアイテムを生成することを目的としている。
我々のソリューションは、様々なシーケンシャルなレコメンデーションタスクにおいて最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-12T17:21:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。