論文の概要: Personalize Before Retrieve: LLM-based Personalized Query Expansion for User-Centric Retrieval
- arxiv url: http://arxiv.org/abs/2510.08935v1
- Date: Fri, 10 Oct 2025 02:24:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.01817
- Title: Personalize Before Retrieve: LLM-based Personalized Query Expansion for User-Centric Retrieval
- Title(参考訳): 検索前のパーソナライズ:LLMに基づくユーザ中心検索のためのパーソナライズされたクエリ拡張
- Authors: Yingyi Zhang, Pengyue Jia, Derong Xu, Yi Wen, Xianneng Li, Yichao Wang, Wenlin Zhang, Xiaopeng Li, Weinan Gan, Huifeng Guo, Yong Liu, Xiangyu Zhao,
- Abstract要約: Personalize Before Retrieve (PBR) は、ユーザ固有の信号を検索前にクエリ拡張に組み込むフレームワークである。
PBRは一貫して強力なベースラインを上回り、PersonaBenchはリトリーバー全体で最大10%の利益を得ている。
- 参考スコア(独自算出の注目度): 34.298743064665395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-Augmented Generation (RAG) critically depends on effective query expansion to retrieve relevant information. However, existing expansion methods adopt uniform strategies that overlook user-specific semantics, ignoring individual expression styles, preferences, and historical context. In practice, identical queries in text can express vastly different intentions across users. This representational rigidity limits the ability of current RAG systems to generalize effectively in personalized settings. Specifically, we identify two core challenges for personalization: 1) user expression styles are inherently diverse, making it difficult for standard expansions to preserve personalized intent. 2) user corpora induce heterogeneous semantic structures-varying in topical focus and lexical organization-which hinders the effective anchoring of expanded queries within the user's corpora space. To address these challenges, we propose Personalize Before Retrieve (PBR), a framework that incorporates user-specific signals into query expansion prior to retrieval. PBR consists of two components: P-PRF, which generates stylistically aligned pseudo feedback using user history for simulating user expression style, and P-Anchor, which performs graph-based structure alignment over user corpora to capture its structure. Together, they produce personalized query representations tailored for retrieval. Experiments on two personalized benchmarks show that PBR consistently outperforms strong baselines, with up to 10% gains on PersonaBench across retrievers. Our findings demonstrate the value of modeling personalization before retrieval to close the semantic gap in user-adaptive RAG systems. Our code is available at https://github.com/Zhang-Yingyi/PBR-code.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、関連する情報を取得するための効果的なクエリ拡張に依存している。
しかし、既存の拡張手法では、個々の表現スタイル、好み、歴史的文脈を無視して、ユーザ固有の意味を無視する一様戦略を採用している。
実際には、テキスト内の同一のクエリは、ユーザ間で非常に異なる意図を表現できる。
この表現剛性は、パーソナライズされた設定において、現在のRAGシステムを効果的に一般化する能力を制限する。
具体的には、パーソナライズのための2つの課題を特定します。
1) ユーザ表現スタイルは本質的に多様であり,標準拡張ではパーソナライズされた意図の保存が困難である。
2) ユーザコーパスは,話題の焦点や語彙構造に異質なセマンティック構造を誘導し,ユーザのコーパス空間内の拡張クエリの効果的なアンカーを阻害する。
これらの課題に対処するため,検索前のクエリ拡張にユーザ固有の信号を組み込んだPBR(Personize Before Retrieve)を提案する。
P-PRFはユーザ表現スタイルをシミュレートするためにユーザ履歴を用いてスタイリスティックに整列された擬似フィードバックを生成するもので、P-Anchorはユーザコーパスをグラフベースでアライメントしてその構造をキャプチャする。
同時に、検索に適したパーソナライズされたクエリ表現を生成する。
2つのパーソナライズされたベンチマークの実験では、PBRは一貫して強力なベースラインを上回り、レトリバー全体でPersonaBenchが最大10%向上している。
本研究は,ユーザ適応型RAGシステムのセマンティックギャップを埋めるために,検索前のパーソナライズをモデル化することの価値を示す。
私たちのコードはhttps://github.com/Zhang-Yingyi/PBR-code.comで利用可能です。
関連論文リスト
- PrLM: Learning Explicit Reasoning for Personalized RAG via Contrastive Reward Optimization [4.624026598342624]
検索したユーザプロファイルを明示的に推論するために,LLMをトレーニングする強化学習フレームワークであるPrLMを提案する。
PrLMは、注釈付き推論パスを必要とせずに、ユーザの応答から効果的に学習する。
3つのパーソナライズされたテキスト生成データセットの実験は、PrLMが既存の手法より優れていることを示している。
論文 参考訳(メタデータ) (2025-08-10T13:37:26Z) - LATex: Leveraging Attribute-based Text Knowledge for Aerial-Ground Person Re-Identification [78.73711446918814]
我々は,属性ベースのテキスト知識を活用するために,アクシデントチューニング戦略を採用した,AG-ReIDのためのLATexという新しいフレームワークを提案する。
我々のフレームワークは属性ベースのテキスト知識をフル活用してAG-ReIDの性能を向上させることができる。
論文 参考訳(メタデータ) (2025-03-31T04:47:05Z) - Personalized Graph-Based Retrieval for Large Language Models [51.7278897841697]
ユーザ中心の知識グラフを利用してパーソナライゼーションを強化するフレームワークを提案する。
構造化されたユーザ知識を直接検索プロセスに統合し、ユーザ関連コンテキストにプロンプトを拡大することにより、PGraphはコンテキスト理解と出力品質を向上させる。
また,ユーザ履歴が不足あるいは利用できない実環境において,パーソナライズされたテキスト生成タスクを評価するために設計された,パーソナライズドグラフベースのテキスト生成ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-04T01:46:49Z) - Preference Adaptive and Sequential Text-to-Image Generation [24.787970969428976]
我々は、大規模なオープンソース(非シーケンシャル)データセットとともに、シーケンシャルな選好の新たなデータセットを作成します。
EM戦略を用いてユーザ嗜好モデルとユーザ選択モデルを構築し,様々なユーザ嗜好タイプを同定する。
次に,大規模マルチモーダル言語モデル (LMM) と値に基づくRLアプローチを用いて,ユーザへの迅速な拡張の適応的かつ多様なスレートを提案する。
PASTA(Preference Adaptive and Sequential Text-to-image Agent)は、適応的マルチターン機能を備えたT2Iモデルを拡張し、協調的共同創造を促進し、不確実性や不特定性に対処する。
論文 参考訳(メタデータ) (2024-12-10T01:47:40Z) - ULMRec: User-centric Large Language Model for Sequential Recommendation [16.494996929730927]
ユーザがカスタマイズした好みを大規模言語モデルに統合するフレームワークであるULMRecを提案する。
2つの公開データセットに対する大規模な実験は、ULMRecが既存の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-12-07T05:37:00Z) - A Neural Topical Expansion Framework for Unstructured Persona-oriented
Dialogue Generation [52.743311026230714]
Persona Exploration and Exploitation (PEE)は、事前に定義されたユーザペルソナ記述を意味論的に相関したコンテンツで拡張することができる。
PEEはペルソナ探索とペルソナ搾取という2つの主要なモジュールで構成されている。
提案手法は, 自動評価と人的評価の両面で, 最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-06T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。