論文の概要: Offline Reasoning for Efficient Recommendation: LLM-Empowered Persona-Profiled Item Indexing
- arxiv url: http://arxiv.org/abs/2602.21756v1
- Date: Wed, 25 Feb 2026 10:14:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.791185
- Title: Offline Reasoning for Efficient Recommendation: LLM-Empowered Persona-Profiled Item Indexing
- Title(参考訳): 効率的なレコメンデーションのためのオフライン推論:LLMを活用したペルソナプロファイリング
- Authors: Deogyong Kim, Junseong Lee, Jeongeun Lee, Changhoe Kim, Junguel Lee, Jungseok Lee, Dongha Lee,
- Abstract要約: 我々は、アイテムの解釈可能なペルソナ表現を構築するためにオフライン推論を行うレコメンデーションフレームワークであるPersona4Recを紹介する。
Persona4Rec は最近の LLM ベースのリランカに匹敵する性能を実現し、推論時間を大幅に短縮する。
その結果,ペルソナ4Recは次世代レコメンデータシステムに対して実用的で解釈可能なソリューションであることがわかった。
- 参考スコア(独自算出の注目度): 7.876807040750699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in large language models (LLMs) offer new opportunities for recommender systems by capturing the nuanced semantics of user interests and item characteristics through rich semantic understanding and contextual reasoning. In particular, LLMs have been employed as rerankers that reorder candidate items based on inferred user-item relevance. However, these approaches often require expensive online inference-time reasoning, leading to high latency that hampers real-world deployment. In this work, we introduce Persona4Rec, a recommendation framework that performs offline reasoning to construct interpretable persona representations of items, enabling lightweight and scalable real-time inference. In the offline stage, Persona4Rec leverages LLMs to reason over item reviews, inferring diverse user motivations that explain why different types of users may engage with an item; these inferred motivations are materialized as persona representations, providing multiple, human-interpretable views of each item. Unlike conventional approaches that rely on a single item representation, Persona4Rec learns to align user profiles with the most plausible item-side persona through a dedicated encoder, effectively transforming user-item relevance into user-persona relevance. At the online stage, this persona-profiled item index allows fast relevance computation without invoking expensive LLM reasoning. Extensive experiments show that Persona4Rec achieves performance comparable to recent LLM-based rerankers while substantially reducing inference time. Moreover, qualitative analysis confirms that persona representations not only drive efficient scoring but also provide intuitive, review-grounded explanations. These results demonstrate that Persona4Rec offers a practical and interpretable solution for next-generation recommender systems.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、ユーザ興味やアイテム特性のニュアンスなセマンティクスをリッチなセマンティクス理解と文脈的推論によって捉えることによって、リコメンデーションシステムに新たな機会を提供する。
特に、LLMは、推測されたユーザ・イテム関係に基づいて候補項目を並べ替えるリランカーとして採用されている。
しかしながら、これらのアプローチは、しばしば高価なオンライン推論時間推論を必要とするため、現実のデプロイメントを邪魔する高いレイテンシにつながる。
本稿では、アイテムの解釈可能なペルソナ表現を構築するためのオフライン推論を行うレコメンデーションフレームワークであるPersona4Recを紹介し、軽量でスケーラブルなリアルタイム推論を可能にする。
オフラインの段階では、 Persona4Rec は LLM を利用してアイテムレビューを推論し、異なるタイプのユーザーがアイテムに関わり得る理由を説明する多様なユーザーモチベーションを推測する。
単一項目表現に依存する従来のアプローチとは異なり、Persona4Recは専用のエンコーダを通じて、ユーザプロファイルと最ももっとも妥当なアイテムサイドのペルソナを整列させることを学び、ユーザ項目の関連性をユーザ個人関連に効果的に変換する。
オンラインの段階では、このペルソナが目指す項目インデックスは、高価なLCM推論を呼び起こさずに、高速な関連性計算を可能にする。
大規模な実験により、ペルソナ4Recは最近のLSMベースのリランカに匹敵する性能を達成し、推論時間を大幅に短縮した。
さらに、定性的分析により、ペルソナ表現は効率のよいスコアリングだけでなく、直感的でレビューされた説明を提供することが確認される。
これらの結果は、ペルソナ4Recが次世代レコメンデータシステムに対して実用的で解釈可能なソリューションであることを示している。
関連論文リスト
- ALPBench: A Benchmark for Attribution-level Long-term Personal Behavior Understanding [53.88804678012327]
ALPBenchは属性レベルの長期的個人行動理解のためのベンチマークである。
ユーザと興味のある属性の組み合わせを予測し、基幹構造評価を可能にする。
ユーザの明示的に表現された要求よりも、長期的な歴史的行動の好みをモデル化する。
論文 参考訳(メタデータ) (2026-02-03T03:32:16Z) - MGFRec: Towards Reinforced Reasoning Recommendation with Multiple Groundings and Feedback [62.59727494001646]
我々は,LLMが実際のアイテム空間をよりよく理解するために,推論中に複数ラウンドのグラウンドを実行することを提案する。
3つのAmazonレビューデータセットで実施された総合的な実験は、複数の基盤とフィードバックを組み込むことの有効性を実証している。
論文 参考訳(メタデータ) (2025-10-27T00:41:07Z) - MADREC: A Multi-Aspect Driven LLM Agent for Explainable and Adaptive Recommendation [11.430206422495829]
マルチアスペクト駆動型LLMエージェントMADRecは、レビューからマルチアスペクト情報の教師なし抽出によってユーザとアイテムのプロファイルを構築する自動レコメンデータである。
MADRecはアスペクトカテゴリに基づく要約を通じて構造化プロファイルを生成し、高密度入力を構築するためにRe-Rankingを適用する。
複数の領域にわたる実験により、MADRecは従来のLCMベースのベースラインよりも精度と説明可能性の両方で優れていることが示された。
論文 参考訳(メタデータ) (2025-10-15T10:03:29Z) - PrLM: Learning Explicit Reasoning for Personalized RAG via Contrastive Reward Optimization [4.624026598342624]
検索したユーザプロファイルを明示的に推論するために,LLMをトレーニングする強化学習フレームワークであるPrLMを提案する。
PrLMは、注釈付き推論パスを必要とせずに、ユーザの応答から効果的に学習する。
3つのパーソナライズされたテキスト生成データセットの実験は、PrLMが既存の手法より優れていることを示している。
論文 参考訳(メタデータ) (2025-08-10T13:37:26Z) - PersonaFeedback: A Large-scale Human-annotated Benchmark For Personalization [25.45861816665351]
我々は、パーソナライズされた応答を提供するLLMの能力を直接評価する新しいベンチマークであるPersonaFeedbackを紹介する。
過去のインタラクションから暗黙のユーザペルソナを推論するモデルを必要とする既存のベンチマークとは異なり、PersonaFeedbackはパーソナライゼーションからペルソナ推論を分離する。
PersonaFeedbackは8298人の注釈付きテストケースで構成されており、簡単、中、硬い層に分類される。
論文 参考訳(メタデータ) (2025-06-15T17:19:19Z) - Know Me, Respond to Me: Benchmarking LLMs for Dynamic User Profiling and Personalized Responses at Scale [53.059480071818136]
大規模言語モデル(LLM)は、幅広いタスクでユーザのためのパーソナライズされたアシスタントとして登場した。
PERSONAMEMは180以上のユーザ-LLMインタラクション履歴を持つキュレートされたユーザプロファイルを備えている。
LLMチャットボットのユーザプロファイルの現在状況に応じて,最も適切な応答を識別する能力を評価する。
論文 参考訳(メタデータ) (2025-04-19T08:16:10Z) - ULMRec: User-centric Large Language Model for Sequential Recommendation [16.494996929730927]
ユーザがカスタマイズした好みを大規模言語モデルに統合するフレームワークであるULMRecを提案する。
2つの公開データセットに対する大規模な実験は、ULMRecが既存の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-12-07T05:37:00Z) - Reinforced Prompt Personalization for Recommendation with Large Language Models [24.360796133889156]
本稿では,個々のユーザに対して個別のプロンプトをパーソナライズすることを目的とした,インスタンスワイドプロンプトの概念を紹介する。
効率と品質を向上させるため、RPPは単語ごとの単語を検索するのではなく、文レベルでプロンプトをパーソナライズする。
論文 参考訳(メタデータ) (2024-07-24T09:24:49Z) - Aligning Language Models with Demonstrated Feedback [58.834937450242975]
Demonstration ITerated Task Optimization (DITTO)は、言語モデルの出力とユーザの実証された振る舞いを直接調整する。
我々は,DITTOがニュース記事やメール,ブログ記事などのドメイン間できめ細かいスタイルやタスクアライメントを学習する能力を評価する。
論文 参考訳(メタデータ) (2024-06-02T23:13:56Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。