論文の概要: Retrieval Augmented Generation with Collaborative Filtering for Personalized Text Generation
- arxiv url: http://arxiv.org/abs/2504.05731v1
- Date: Tue, 08 Apr 2025 07:03:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:30:50.057035
- Title: Retrieval Augmented Generation with Collaborative Filtering for Personalized Text Generation
- Title(参考訳): 個人化テキスト生成のための協調フィルタリングを用いた検索補助生成
- Authors: Teng Shi, Jun Xu, Xiao Zhang, Xiaoxue Zang, Kai Zheng, Yang Song, Han Li,
- Abstract要約: CFRAGは、パーソナライズされたテキスト生成のために、協調フィルタリングをRAGに適合させる。
コントラスト学習を用いて、ユーザ埋め込みをトレーニングし、類似したユーザを検索します。
検索と再ランク付けの際のユーザの好みを考慮に入れます。
- 参考スコア(独自算出の注目度): 24.556703891452266
- License:
- Abstract: Recently, the personalization of Large Language Models (LLMs) to generate content that aligns with individual user preferences has garnered widespread attention. Personalized Retrieval-Augmented Generation (RAG), which retrieves relevant documents from the user's history to reflect their preferences and enhance LLM generation, is one commonly used approach for personalization. However, existing personalized RAG methods do not consider that the histories of similar users can also assist in personalized generation for the current user, meaning that collaborative information between users can also benefit personalized generation. Inspired by the application of collaborative filtering in recommender systems, we propose a method called CFRAG, which adapts Collaborative Filtering to RAG for personalized text generation. However, this presents two challenges: (1)~how to incorporate collaborative information without explicit user similarity labels? (2)~how to retrieve documents that support personalized LLM generation? For Challenge 1, we use contrastive learning to train user embeddings to retrieve similar users and introduce collaborative information. For Challenge 2, we design a personalized retriever and reranker to retrieve the top-$k$ documents from these users' histories. We take into account the user's preference during retrieval and reranking. Then we leverage feedback from the LLM to fine-tune the personalized retriever and reranker, enabling them to retrieve documents that meet the personalized generation needs of the LLM. Experimental results on the Language Model Personalization (LaMP) benchmark validate the effectiveness of CFRAG. Further analysis confirms the importance of incorporating collaborative information.
- Abstract(参考訳): 近年,大規模言語モデル(LLM)のパーソナライズにより,個々のユーザの好みに合わせてコンテンツを生成することが注目されている。
パーソナライズされた検索・拡張生成(RAG)は、ユーザの履歴から関連文書を検索して好みを反映し、LLM生成を強化するもので、パーソナライズのための一般的なアプローチである。
しかし、既存のパーソナライズされたRAG手法では、類似したユーザの履歴が現在のユーザのパーソナライズされた生成を補助できるとは考えておらず、ユーザ間の協調的な情報もパーソナライズされた生成に役立てることができる。
本稿では,コラボレーティブ・フィルタリングをレコメンデーションシステムに適用したCFRAGを提案する。
しかし、これは2つの課題を提示する:(1) - 明示的なユーザ類似性ラベルなしで協調情報をどのように組み込むか?
(2)パーソナライズされたLCM生成をサポートする文書の検索方法
チャレンジ1では、コントラスト学習を使用して、ユーザ埋め込みをトレーニングし、類似したユーザを検索し、協力的な情報を導入します。
チャレンジ2では、パーソナライズされたレトリバーとリランカを設計し、これらのユーザの履歴から上位100ドルのドキュメントを検索する。
検索と再ランク付けの際のユーザの好みを考慮に入れます。
次に、LLMからのフィードバックを利用して、パーソナライズされたレトリバーとリランカを微調整し、LLMのパーソナライズされた生成ニーズを満たすドキュメントを検索する。
言語モデルパーソナライゼーション(LaMP)ベンチマークの実験結果は、CFRAGの有効性を検証する。
さらなる分析により、協調情報を取り入れることの重要性が確認される。
関連論文リスト
- Personalized Graph-Based Retrieval for Large Language Models [51.7278897841697]
ユーザ中心の知識グラフを利用してパーソナライゼーションを強化するフレームワークを提案する。
構造化されたユーザ知識を直接検索プロセスに統合し、ユーザ関連コンテキストにプロンプトを拡大することにより、PGraphはコンテキスト理解と出力品質を向上させる。
また,ユーザ履歴が不足あるいは利用できない実環境において,パーソナライズされたテキスト生成タスクを評価するために設計された,パーソナライズドグラフベースのテキスト生成ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-04T01:46:49Z) - ULMRec: User-centric Large Language Model for Sequential Recommendation [16.494996929730927]
ユーザがカスタマイズした好みを大規模言語モデルに統合するフレームワークであるULMRecを提案する。
2つの公開データセットに対する大規模な実験は、ULMRecが既存の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-12-07T05:37:00Z) - Optimizing Data Delivery: Insights from User Preferences on Visuals, Tables, and Text [59.68239795065175]
ユーザが質問を提示するユーザスタディを実施し、何を見たいのかを尋ねます。
ユーザの個人的特性が、彼らが好むデータ出力に影響を与えることを確認するために、このデータを使用します。
論文 参考訳(メタデータ) (2024-11-12T00:24:31Z) - Memory Augmented Cross-encoders for Controllable Personalized Search [53.7152408217116]
制御可能なパーソナライズされた検索のためのアプローチを提案する。
我々のモデルであるCtrlCEは,ユーザの履歴項目から編集可能なメモリを付加した,新しいクロスエンコーダモデルを提案する。
我々は、CtrlCEを効果的にパーソナライズし、制御可能なパーソナライズ検索の様々な重要な目標を達成できることを示す。
論文 参考訳(メタデータ) (2024-11-05T03:55:25Z) - RAP: Retrieval-Augmented Personalization for Multimodal Large Language Models [53.304699445700926]
MLLMのパーソナライズのための検索強化パーソナライズフレームワークについて紹介する。
一般的なMLLMから始まり、3つのステップでパーソナライズされたアシスタントにします。
大規模データセットを事前トレーニングすることにより、RAP-MLLMは、追加の微調整なしで無限の視覚概念に一般化することができる。
論文 参考訳(メタデータ) (2024-10-17T09:10:26Z) - PersonalLLM: Tailoring LLMs to Individual Preferences [11.717169516971856]
我々は、特定のユーザに対して最大限のメリットを提供するためにLLMを適用することに焦点を当てた、PersonalLLMという公開ベンチマークを提示する。
我々は、ユーザーが不均一な潜伏傾向を示すことを期待する高品質な回答と組み合わせたオープンエンドプロンプトをキュレートする。
私たちのデータセットと生成された個人性は、パーソナライズアルゴリズムを開発するための革新的なテストベッドを提供します。
論文 参考訳(メタデータ) (2024-09-30T13:55:42Z) - LLMs + Persona-Plug = Personalized LLMs [41.60364110693824]
パーソナライゼーションは多くの言語タスクやアプリケーションにおいて重要な役割を担っている。
これにより、大きな言語モデル(LLM)を適用して、ユーザの好みに合わせてカスタマイズされたアウトプットを生成する、さまざまなパーソナライズされたアプローチが開発された。
そこで我々は,LLMモデルを提案する。軽量なプラグインユーザ埋め込みモジュールを用いて,過去の状況をすべてモデル化し,個人毎のユーザ固有の埋め込みを構築する。
論文 参考訳(メタデータ) (2024-09-18T11:54:45Z) - Personalized Federated Collaborative Filtering: A Variational AutoEncoder Approach [49.63614966954833]
Federated Collaborative Filtering (FedCF)は、プライバシを保護する新しいレコメンデーションフレームワークの開発に焦点を当てた新興分野である。
既存のFedCFメソッドは通常、分散協調フィルタリング(CF)アルゴリズムとプライバシ保護メカニズムを組み合わせて、パーソナライズされた情報をユーザ埋め込みベクタに保存する。
本稿では,ユーザのパーソナライズされた情報を潜在変数とニューラルモデルに同時に保存することで,新たなパーソナライズされたFedCF手法を提案する。
論文 参考訳(メタデータ) (2024-08-16T05:49:14Z) - PersonaRAG: Enhancing Retrieval-Augmented Generation Systems with User-Centric Agents [0.9135658693137204]
本稿では,リアルタイムなユーザデータとインタラクションに基づく検索と生成にユーザ中心のエージェントを取り入れた新しいフレームワークであるPersonaRAGを紹介する。
その結果,ユーザ適応型情報検索システムにおける有望な方向性が示唆された。
論文 参考訳(メタデータ) (2024-07-12T16:18:00Z) - Step-Back Profiling: Distilling User History for Personalized Scientific Writing [50.481041470669766]
大きな言語モデル(LLM)は、さまざまな自然言語処理タスクに優れていますが、個人向けにパーソナライズされたコンテンツを生成するのに苦労しています。
ユーザ履歴を簡潔なプロファイルに抽出することで,LSMをパーソナライズするためのSTEP-BACK ProFIlingを導入する。
本手法は,一般パーソナライゼーションベンチマークにおいて,ベースラインを最大3.6ポイント向上させる。
論文 参考訳(メタデータ) (2024-06-20T12:58:26Z) - Pearl: Personalizing Large Language Model Writing Assistants with Generation-Calibrated Retrievers [20.877039527524808]
そこで本論文では,パーソナライズのための世代分類を訓練したレトリバーにパーソナライズされた筆記アシスタントであるPearlを提案する。
一連の総合評価において、ソーシャルメディアデータセット上での長文生成におけるパールの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-15T18:19:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。