論文の概要: PARAN: Persona-Augmented Review ANswering system on Food Delivery Review Dataset
- arxiv url: http://arxiv.org/abs/2512.10148v1
- Date: Wed, 10 Dec 2025 23:04:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.107299
- Title: PARAN: Persona-Augmented Review ANswering system on Food Delivery Review Dataset
- Title(参考訳): PARAN:食品デリバリーレビューデータセットに関する個人別レビュー回答システム
- Authors: Moonsoo Park, Jeongseok Yun, Bohyung Kim,
- Abstract要約: 提案する2段階のプロンプト・フレームワークは,ユーザの好みを明示的(例えば,ユーザの好み)と暗黙的(例えば,人口統計学やスタイリスティック・キュー)の両方を,短いレビューテキストから直接推測する。
これらの推論されたペルソナ属性は、応答生成プロンプトに組み込まれ、ユーザカスタマイズされた応答を生成する。
韓国のフードデリバリーアプリから収集した実世界のデータセットを用いて本手法の評価を行い,その精度,多様性,意味的整合性への影響を評価した。
- 参考スコア(独自算出の注目度): 1.3254304182988286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized review response generation presents a significant challenge in domains where user information is limited, such as food delivery platforms. While large language models (LLMs) offer powerful text generation capabilities, they often produce generic responses when lacking contextual user data, reducing engagement and effectiveness. In this work, we propose a two-stage prompting framework that infers both explicit (e.g., user-stated preferences) and implicit (e.g., demographic or stylistic cues) personas directly from short review texts. These inferred persona attributes are then incorporated into the response generation prompt to produce user-tailored replies. To encourage diverse yet faithful generations, we adjust decoding temperature during inference. We evaluate our method using a real-world dataset collected from a Korean food delivery app, and assess its impact on precision, diversity, and semantic consistency. Our findings highlight the effectiveness of persona-augmented prompting in enhancing the relevance and personalization of automated responses without requiring model fine-tuning.
- Abstract(参考訳): 個人化されたレビュー応答生成は、食品デリバリープラットフォームなどのユーザ情報が限られている領域において大きな課題となる。
大規模言語モデル(LLM)は強力なテキスト生成機能を提供するが、コンテキストのユーザデータを欠いた場合、エンゲージメントと有効性を減らすことで、一般的な応答を生成することが多い。
本研究では,2段階のプロンプト・フレームワークを提案する。このフレームワークは,短いレビューテキストから直接,明示的(例えば,ユーザの嗜好)と暗黙的(例えば,人口統計学やスタイリスティックな手がかり)の両方を推論する。
これらの推論されたペルソナ属性は、応答生成プロンプトに組み込まれ、ユーザカスタマイズされた応答を生成する。
多様な世代に忠実な世代を奨励するために、推論中に復号温度を調整する。
韓国のフードデリバリーアプリから収集した実世界のデータセットを用いて本手法の評価を行い,その精度,多様性,意味的整合性への影響を評価した。
本研究は、モデル微調整を必要とせず、自動応答の妥当性とパーソナライゼーションを高めるペルソナ強化プロンプトの有効性を浮き彫りにした。
関連論文リスト
- Learning from Natural Language Feedback for Personalized Question Answering [21.115495457454365]
パーソナライゼーションは、言語技術の有効性とユーザ満足度を高めるために不可欠である。
大規模言語モデル(LLM)をパーソナライズするための現在のアプローチは、しばしば検索強化世代(RAG)に依存している。
我々は、スカラー報酬を自然言語フィードバック(NLF)に置き換える、パーソナライズされた応答生成のための新しいフレームワークであるVacを紹介する。
論文 参考訳(メタデータ) (2025-08-14T14:36:53Z) - Rehearse With User: Personalized Opinion Summarization via Role-Playing based on Large Language Models [29.870187698924852]
大きな言語モデルは、長いテキストを含むパーソナライズされたタスクにおいて困難に直面します。
モデルがユーザとして機能することで、モデルはユーザのパーソナライズされたニーズをよりよく理解できます。
提案手法は,大規模モデル生成サマリーにおけるパーソナライズレベルを効果的に向上させることができる。
論文 参考訳(メタデータ) (2025-03-01T11:05:01Z) - RELIC: Investigating Large Language Model Responses using Self-Consistency [58.63436505595177]
LLM(Large Language Models)は、フィクションと事実を混同し、幻覚として知られる非事実コンテンツを生成することで有名である。
本稿では,ユーザが生成したテキストの信頼性を把握できる対話型システムを提案する。
論文 参考訳(メタデータ) (2023-11-28T14:55:52Z) - PICK: Polished & Informed Candidate Scoring for Knowledge-Grounded
Dialogue Systems [59.1250765143521]
現在の知識接地対話システムは、生成された応答を人間に好まれる品質に合わせるのに失敗することが多い。
我々は,世代別再描画フレームワークであるPolseed & Informed Candidate Scoring (PICK)を提案する。
対話履歴に関連性を維持しつつ,より忠実な応答を生成するためのPICKの有効性を示す。
論文 参考訳(メタデータ) (2023-09-19T08:27:09Z) - AaKOS: Aspect-adaptive Knowledge-based Opinion Summarization [5.4138734778206]
インターネット上の情報の急速な増加は、様々な活動、製品、サービスに関する圧倒的な意見やコメントにつながっている。
これにより、ユーザが意思決定を行うときに利用可能なすべての情報を処理するのが難しく、時間がかかります。
本稿では,製品レビューのためのアスペクト適応型知識ベースオピニオン要約モデルを提案する。
論文 参考訳(メタデータ) (2023-05-26T03:44:35Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - Large Language Models are Diverse Role-Players for Summarization
Evaluation [82.31575622685902]
文書要約の品質は、文法や正しさといった客観的な基準と、情報性、簡潔さ、魅力といった主観的な基準で人間の注釈者によって評価することができる。
BLUE/ROUGEのような自動評価手法のほとんどは、上記の次元を適切に捉えることができないかもしれない。
目的と主観の両面から生成されたテキストと参照テキストを比較し,総合的な評価フレームワークを提供するLLMに基づく新しい評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-27T10:40:59Z) - Towards Building a Personalized Dialogue Generator via Implicit User
Persona Detection [0.0]
高品質なトランスミッションは基本的に、相手のペルソナを反映して構築されていると考えています。
そこで本研究では,暗黙のユーザペルソナを検知する対話生成手法を提案する。
論文 参考訳(メタデータ) (2022-04-15T08:12:10Z) - Improving Factual Consistency Between a Response and Persona Facts [64.30785349238619]
応答生成のためのニューラルネットワークは、意味論的に妥当であるが、必ずしも話者のペルソナを記述する事実と矛盾しない応答を生成する。
我々は,これらのモデルを強化学習により微調整し,応答とペルソナ事実の一貫性と意味的妥当性を明確に把握する効率的な報酬関数を提案する。
論文 参考訳(メタデータ) (2020-04-30T18:08:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。