論文の概要: Reasoning-Based Personalized Generation for Users with Sparse Data
- arxiv url: http://arxiv.org/abs/2602.21219v1
- Date: Sat, 31 Jan 2026 01:54:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.65485
- Title: Reasoning-Based Personalized Generation for Users with Sparse Data
- Title(参考訳): スパースデータを用いたユーザのための推論に基づくパーソナライズ生成
- Authors: Bo Ni, Branislav Kveton, Samyadeep Basu, Subhojyoti Mukherjee, Leyao Wang, Franck Dernoncourt, Sungchul Kim, Seunghyun Yoon, Zichao Wang, Ruiyi Zhang, Puneet Mathur, Jihyung Kil, Jiuxiang Gu, Nedim Lipka, Yu Wang, Ryan A. Rossi, Tyler Derr,
- Abstract要約: スパースコンテキスト下でパーソナライズされたテキスト生成を強化する新しいフレームワークであるGraSPerを紹介する。
GraSPerは、ユーザが将来的に対話する可能性のあるアイテムを予測することで、ユーザコンテキストを初めて強化する。
推論アライメントによって、これらのインタラクションのためのテキストを生成して、拡張されたコンテキストを豊かにする。
最終的に、実際の履歴と合成履歴の両方に基づいて、パーソナライズされた出力を生成する。
- 参考スコア(独自算出の注目度): 120.94029850012045
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Model (LLM) personalization holds great promise for tailoring responses by leveraging personal context and history. However, real-world users usually possess sparse interaction histories with limited personal context, such as cold-start users in social platforms and newly registered customers in online E-commerce platforms, compromising the LLM-based personalized generation. To address this challenge, we introduce GraSPer (Graph-based Sparse Personalized Reasoning), a novel framework for enhancing personalized text generation under sparse context. GraSPer first augments user context by predicting items that the user would likely interact with in the future. With reasoning alignment, it then generates texts for these interactions to enrich the augmented context. In the end, it generates personalized outputs conditioned on both the real and synthetic histories, ensuring alignment with user style and preferences. Extensive experiments on three benchmark personalized generation datasets show that GraSPer achieves significant performance gain, substantially improving personalization in sparse user context settings.
- Abstract(参考訳): 大規模言語モデル(LLM)のパーソナライゼーションは、個人的コンテキストと履歴を活用することで、応答をカスタマイズする大きな可能性を秘めている。
しかし、現実のユーザーは、ソーシャルプラットフォームにおけるコールドスタートユーザーやオンラインEコマースプラットフォームにおける新規登録顧客など、限られた個人的文脈で疎いインタラクション履歴を持ち、LLMベースのパーソナライズされた世代を補完する。
この課題に対処するために、スパースコンテキスト下でパーソナライズされたテキスト生成を強化する新しいフレームワークであるGraSPer(グラフベースのスパースパーソナライズされた推論)を紹介する。
GraSPerは、ユーザが将来的に対話する可能性のあるアイテムを予測することで、ユーザコンテキストを初めて強化する。
推論アライメントによって、これらのインタラクションのためのテキストを生成して、拡張されたコンテキストを豊かにする。
最終的に、実際の履歴と合成履歴の両方に規定されたパーソナライズされた出力を生成し、ユーザスタイルと好みとの整合性を確保する。
3つのベンチマークパーソナライズされた生成データセットに対する大規模な実験により、GraSPerはパフォーマンスが大幅に向上し、スパースなユーザコンテキスト設定でのパーソナライズが大幅に改善された。
関連論文リスト
- Synthetic Interaction Data for Scalable Personalization in Large Language Models [67.31884245564086]
本稿ではPersonaGymという高忠実な合成データ生成フレームワークを紹介する。
パーソナライゼーションを静的なペルソナ-参照ペアとして扱う以前の作業とは異なり、PersonaGymは動的な選好プロセスをモデル化する。
我々は,高忠実度マルチターンパーソナライズされたインタラクショントラジェクトリの大規模かつ高品質で多様な合成データセットであるPersonaAtlasをリリースする。
論文 参考訳(メタデータ) (2026-02-12T20:41:22Z) - PREFINE: Personalized Story Generation via Simulated User Critics and User-Specific Rubric Generation [2.8324853634693614]
PreFINEは、Crytique-and-Refineパラダイムをパーソナライズに拡張する新しいフレームワークである。
PreFINEは、ユーザのインタラクション履歴から擬似ユーザエージェントを構築し、ユーザ固有のルーリックを生成する。
本手法は,対話システムや教育,レコメンデーションなどの幅広い応用において,効率的なパーソナライズを可能にする可能性を持っている。
論文 参考訳(メタデータ) (2025-09-16T16:39:40Z) - A Personalized Conversational Benchmark: Towards Simulating Personalized Conversations [112.81207927088117]
PersonaConvBenchは、大規模言語モデル(LLM)とのマルチターン会話におけるパーソナライズされた推論と生成を評価するためのベンチマークである。
我々は,複数の商用およびオープンソース LLM を統一的なプロンプト設定でベンチマークし,パーソナライズされた履歴を組み込むことで大幅な性能向上が得られることを観察した。
論文 参考訳(メタデータ) (2025-05-20T09:13:22Z) - Embedding-to-Prefix: Parameter-Efficient Personalization for Pre-Trained Large Language Models [6.445337954429245]
大規模言語モデル(LLM)は、文脈に関連のあるコンテンツを生成するのに優れている。
本研究では,LLMの隠れ表現空間にコンテキスト埋め込みを注入するパラメータ効率の高いEmbeding-to-Prefix(E2P)を提案する。
我々は2つの公開データセットとプロダクション環境でのE2Pの評価を行い、ペルソナチャットでの対話パーソナライゼーション、PENSにおける文脈的見出し生成、音楽とポッドキャストの大規模パーソナライゼーションについて検討した。
論文 参考訳(メタデータ) (2025-05-16T13:34:25Z) - Personalized Text Generation with Contrastive Activation Steering [63.60368120937822]
そこで本研究では,ベクタとしてパーソナライズされた書体スタイルを分離し,表現する学習自由フレームワークを提案する。
本フレームワークは,PEFT法よりも1700倍のストレージ要求を削減しつつ,パーソナライズ生成において,8%の相対的な改善を実現している。
論文 参考訳(メタデータ) (2025-03-07T08:07:15Z) - Panoramic Interests: Stylistic-Content Aware Personalized Headline Generation [37.86741955785968]
本稿では,Sticistic-Content Aware Personalized Headline Generation (SCAPE) フレームワークを提案する。
SCAPEは、大きな言語モデル(LLM)コラボレーションの助けを借りて、見出しからコンテンツとスタイルの両方の特徴を抽出する。
それは、対照的な学習に基づく階層的融合ネットワークを通じて、ユーザの長期的および短期的な関心を適応的に統合する。
論文 参考訳(メタデータ) (2025-01-21T05:30:20Z) - Personalized Graph-Based Retrieval for Large Language Models [51.7278897841697]
ユーザ中心の知識グラフを利用してパーソナライゼーションを強化するフレームワークを提案する。
構造化されたユーザ知識を直接検索プロセスに統合し、ユーザ関連コンテキストにプロンプトを拡大することにより、PGraphはコンテキスト理解と出力品質を向上させる。
また,ユーザ履歴が不足あるいは利用できない実環境において,パーソナライズされたテキスト生成タスクを評価するために設計された,パーソナライズドグラフベースのテキスト生成ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-04T01:46:49Z) - Doing Personal LAPS: LLM-Augmented Dialogue Construction for Personalized Multi-Session Conversational Search [9.243535345193711]
提案手法は,大規模言語モデルを用いて,個人化された対話を生成するために,一人の人間労働者を誘導する。
LAPSは大規模、人書き、マルチセッション、マルチドメインの会話を収集できる。
その結果,抽出された嗜好を用いて明示的に生成した応答は,ユーザの実際の嗜好と一致していることがわかった。
論文 参考訳(メタデータ) (2024-05-06T13:53:03Z) - Unsupervised Neural Stylistic Text Generation using Transfer learning
and Adapters [66.17039929803933]
応答生成のためのスタイル特化属性を学習するために,モデルパラメータの0.3%しか更新しない新しい転送学習フレームワークを提案する。
我々はPERSONALITY-CAPTIONSデータセットからスタイル固有の属性を学習する。
論文 参考訳(メタデータ) (2022-10-07T00:09:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。