論文の概要: Iterative Critique-Refine Framework for Enhancing LLM Personalization
- arxiv url: http://arxiv.org/abs/2510.24469v1
- Date: Tue, 28 Oct 2025 14:36:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.231833
- Title: Iterative Critique-Refine Framework for Enhancing LLM Personalization
- Title(参考訳): LLMのパーソナライゼーション向上のための反復的批評・修正フレームワーク
- Authors: Durga Prasad Maram, Dhruvin Gandhi, Zonghai Yao, Gayathri Akkinapalli, Franck Dernoncourt, Yu Wang, Ryan A. Rossi, Nesreen K. Ahmed,
- Abstract要約: PerFineは、パーソナライズされたテキスト生成のための、統一的でトレーニング不要な批判修正フレームワークである。
各イテレーションにおいて、LLMジェネレータは、検索されたプロファイルに条件付きドラフトを生成し、同じプロファイルに条件付きである批評家のLLMは、トーン、語彙、文構造、話題性に関する構造化されたフィードバックを提供する。
Yelp、Goodreads、Amazonのデータセット全体で、PerFineはPGraphRAGに対するパーソナライゼーションを一貫して改善している。
- 参考スコア(独自算出の注目度): 67.77803308645511
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized text generation requires models not only to produce coherent text but also to align with a target user's style, tone, and topical focus. Existing retrieval-augmented approaches such as LaMP and PGraphRAG enrich profiles with user and neighbor histories, but they stop at generation and often yield outputs that drift in tone, topic, or style. We present PerFine, a unified, training-free critique-refine framework that enhances personalization through iterative, profile-grounded feedback. In each iteration, an LLM generator produces a draft conditioned on the retrieved profile, and a critic LLM - also conditioned on the same profile - provides structured feedback on tone, vocabulary, sentence structure, and topicality. The generator then revises, while a novel knockout strategy retains the stronger draft across iterations. We further study additional inference-time strategies such as Best-of-N and Topic Extraction to balance quality and efficiency. Across Yelp, Goodreads, and Amazon datasets, PerFine consistently improves personalization over PGraphRAG, with GEval gains of +7-13%, steady improvements over 3-5 refinement iterations, and scalability with increasing critic size. These results highlight that post-hoc, profile-aware feedback offers a powerful paradigm for personalized LLM generation that is both training-free and model-agnostic.
- Abstract(参考訳): パーソナライズされたテキスト生成は、一貫性のあるテキストを生成するだけでなく、ターゲットのユーザのスタイル、トーン、トピックのフォーカスと整合するモデルを必要とする。
LaMPやPGraphRAGのような既存の検索強化アプローチは、ユーザーや近隣の履歴と共にプロファイルを豊かにするが、それらは世代とともに停止し、しばしばトーン、トピック、スタイルで流れ込む出力を出力する。
PerFineは、反復的、プロファイル付きフィードバックによるパーソナライズを強化する、統一された、トレーニング不要な批判再定義フレームワークである。
各イテレーションにおいて、LLMジェネレータは、取得したプロファイルに条件付きドラフトを生成し、同じプロファイルに条件付きである批評家のLLMは、トーン、語彙、文構造、話題性に関する構造化されたフィードバックを提供する。
ジェネレータが修正され、新しいノックアウト戦略がイテレーション間でより強力なドラフトを保持します。
さらに、品質と効率のバランスをとるため、Best-of-Nやトピック抽出などの推論時間戦略についても検討する。
Yelp、Goodreads、Amazonのデータセット全体で、PerFineはPGraphRAGのパーソナライズを継続的に改善している。
これらの結果は、ポストホックでプロファイル対応のフィードバックが、トレーニング不要かつモデルに依存しないパーソナライズ LLM 生成に強力なパラダイムを提供することを示している。
関連論文リスト
- RecMind: LLM-Enhanced Graph Neural Networks for Personalized Consumer Recommendations [1.9556834179471867]
パーソナライゼーションは,ストリーミング,ショッピング,ウェアラブル,音声といった,コンシューマテクノロジのコア機能です。
本稿では、モノリシックなランク付けの前に言語モデルを優先として扱うLLM強化グラフレコメンデータであるRecMindを紹介する。
YelpとAmazon-Electronicsでは、RecMindが報告されている8つの指標すべてに対して、強力なベースラインに対して、+4.53%(Recall@40)と+4.01%(NDCG@40)の相対的な改善を達成している。
論文 参考訳(メタデータ) (2025-09-08T02:15:55Z) - Learning from Natural Language Feedback for Personalized Question Answering [21.115495457454365]
パーソナライゼーションは、言語技術の有効性とユーザ満足度を高めるために不可欠である。
大規模言語モデル(LLM)をパーソナライズするための現在のアプローチは、しばしば検索強化世代(RAG)に依存している。
我々は、スカラー報酬を自然言語フィードバック(NLF)に置き換える、パーソナライズされた応答生成のための新しいフレームワークであるVacを紹介する。
論文 参考訳(メタデータ) (2025-08-14T14:36:53Z) - Personalized Text Generation with Contrastive Activation Steering [63.60368120937822]
そこで本研究では,ベクタとしてパーソナライズされた書体スタイルを分離し,表現する学習自由フレームワークを提案する。
本フレームワークは,PEFT法よりも1700倍のストレージ要求を削減しつつ,パーソナライズ生成において,8%の相対的な改善を実現している。
論文 参考訳(メタデータ) (2025-03-07T08:07:15Z) - Guided Profile Generation Improves Personalization with LLMs [3.2685922749445617]
勧告、ランク付け、Eコマースプラットフォームを含む現代の商業システムでは、パーソナライズコンテキストを大型言語モデル(LLM)への入力として取り入れる傾向にある。
本稿では,自然言語で個人プロファイルを生成するための汎用手法であるGPGを提案する。
実験の結果,GAGはLLMのパーソナライズ能力を向上させることが示され,例えば,LLMを生の個人的コンテキストで直接供給するよりも,個人の嗜好を予測する上で37%の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-09-19T21:29:56Z) - Pistis-RAG: Enhancing Retrieval-Augmented Generation with Human Feedback [41.88662700261036]
RAGシステムは、セマンティックな関連性だけでは生成品質の向上を保証していない場合に制限に直面している。
我々は、LLMと人間の嗜好をよりよく整合させるために、コンテンツ中心のアプローチで設計された新しいRAGフレームワークであるPristis-RAGを提案する。
論文 参考訳(メタデータ) (2024-06-21T08:52:11Z) - Exploring Precision and Recall to assess the quality and diversity of LLMs [82.21278402856079]
我々はtextscLlama-2 や textscMistral のような大規模言語モデル (LLM) のための新しい評価フレームワークを提案する。
このアプローチにより、コーパスの整合を必要とせず、生成したテキストの品質と多様性を微妙に評価できる。
論文 参考訳(メタデータ) (2024-02-16T13:53:26Z) - CritiqueLLM: Towards an Informative Critique Generation Model for Evaluation of Large Language Model Generation [87.44350003888646]
Eval-Instructは、疑似参照でポイントワイズした批評を取得し、マルチパスプロンプトを通じてこれらの批評を修正できる。
CritiqueLLMは、ChatGPTとすべてのオープンソースベースラインを上回るように実証的に示されています。
論文 参考訳(メタデータ) (2023-11-30T16:52:42Z) - Self-Refine: Iterative Refinement with Self-Feedback [62.78755306241981]
Self-Refineは、反復的なフィードバックと改善を通じて、大きな言語モデル(LLM)からの初期出力を改善するアプローチである。
GPT-3.5, ChatGPT, および GPT-4) LLM を用いて, 対話応答生成から数学的推論に至るまで, 7 つのタスクにまたがる自己決定性を評価する。
我々の研究は、GPT-4のような最先端のLCMでさえ、単純でスタンドアロンなアプローチを使用してテスト時にさらに改善できることを示します。
論文 参考訳(メタデータ) (2023-03-30T18:30:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。