論文の概要: Few-Shot and Training-Free Review Generation via Conversational Prompting
- arxiv url: http://arxiv.org/abs/2509.20805v1
- Date: Thu, 25 Sep 2025 06:36:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.732988
- Title: Few-Shot and Training-Free Review Generation via Conversational Prompting
- Title(参考訳): 会話型プロンプティングによる簡単なショットとトレーニング不要レビュー生成
- Authors: Genki Kusano,
- Abstract要約: 現実世界のアプリケーションは、ほとんどショットやトレーニングなしの状況に直面することが多い。
本稿では,ユーザレビューをマルチターン会話として再構成する軽量な手法である会話型プロンプトを提案する。
- 参考スコア(独自算出の注目度): 2.0305676256390934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized review generation helps businesses understand user preferences, yet most existing approaches assume extensive review histories of the target user or require additional model training. Real-world applications often face few-shot and training-free situations, where only a few user reviews are available and fine-tuning is infeasible. It is well known that large language models (LLMs) can address such low-resource settings, but their effectiveness depends on prompt engineering. In this paper, we propose Conversational Prompting, a lightweight method that reformulates user reviews as multi-turn conversations. Its simple variant, Simple Conversational Prompting (SCP), relies solely on the user's own reviews, while the contrastive variant, Contrastive Conversational Prompting (CCP), inserts reviews from other users or LLMs as incorrect replies and then asks the model to correct them, encouraging the model to produce text in the user's style. Experiments on eight product domains and five LLMs showed that the conventional non-conversational prompt often produced reviews similar to those written by random users, based on text-based metrics such as ROUGE-L and BERTScore, and application-oriented tasks like user identity matching and sentiment analysis. In contrast, both SCP and CCP produced reviews much closer to those of the target user, even when each user had only two reviews. CCP brings further improvements when high-quality negative examples are available, whereas SCP remains competitive when such data cannot be collected. These results suggest that conversational prompting offers a practical solution for review generation under few-shot and training-free constraints.
- Abstract(参考訳): パーソナライズされたレビュー生成は、企業がユーザの好みを理解するのに役立つが、既存のアプローチの多くは、対象ユーザの広範なレビュー履歴を仮定するか、追加のモデルトレーニングを必要とする。
現実のアプリケーションは、少数のユーザレビューしか入手できず、微調整が不可能な、数ショットでトレーニング不要な状況に直面することが多い。
大規模言語モデル(LLM)がこのような低リソース設定に対処できることはよく知られているが、その有効性は迅速な工学に依存している。
本稿では,ユーザレビューをマルチターン会話として再構成する軽量な手法であるConversational Promptingを提案する。
その単純な変種であるSimple Conversational Prompting (SCP)は、ユーザ自身のレビューのみに依存し、対照的な変種であるContrastive Conversational Prompting (CCP)は、他のユーザやLSMからのレビューを誤ったリプライとして挿入し、モデルに修正を依頼し、モデルのユーザスタイルのテキスト生成を奨励する。
8つの製品ドメインと5つのLCMの実験では、従来の非会話的なプロンプトが、ROUGE-LやBERTScoreといったテキストベースのメトリクスや、ユーザアイデンティティマッチングや感情分析といったアプリケーション指向のタスクに基づいて、ランダムなユーザによって書かれたものに似たレビューをしばしば生成していた。
対照的に、SCPとCCPはどちらも、各ユーザが2つのレビューしか持たなかった場合でも、ターゲットユーザのレビューよりもはるかに近いレビューを生成した。
CCPは高品質なネガティブな例が利用可能である場合にはさらなる改善をもたらすが、SCPはそのようなデータを収集できない場合には競争力を維持する。
これらの結果から,会話のプロンプトは,少数の制約や訓練のない制約下でのレビュー生成の実践的解決策となることが示唆された。
関連論文リスト
- User Feedback in Human-LLM Dialogues: A Lens to Understand Users But Noisy as a Learning Signal [58.43749783815486]
本研究では,2つのユーザ-LMインタラクションデータセットにおける暗黙のユーザフィードバックについて検討する。
ユーザフィードバックの内容は、人間設計の短い質問において、モデル性能を向上させることができる。
また、ユーザフィードバックの有用性は、ユーザの最初のプロンプトの品質に大きく関係していることもわかりました。
論文 参考訳(メタデータ) (2025-07-30T23:33:29Z) - A Personalized Conversational Benchmark: Towards Simulating Personalized Conversations [112.81207927088117]
PersonaConvBenchは、大規模言語モデル(LLM)とのマルチターン会話におけるパーソナライズされた推論と生成を評価するためのベンチマークである。
我々は,複数の商用およびオープンソース LLM を統一的なプロンプト設定でベンチマークし,パーソナライズされた履歴を組み込むことで大幅な性能向上が得られることを観察した。
論文 参考訳(メタデータ) (2025-05-20T09:13:22Z) - Tuning-Free Personalized Alignment via Trial-Error-Explain In-Context Learning [74.56097953187994]
本稿では,テキスト生成タスクのための言語モデルをパーソナライズするチューニング不要な手法であるTrial-Error-Explain In-Context Learning(TICL)を提案する。
TICLは、試行錯誤説明プロセスを通じて、文脈内学習プロンプトを反復的に拡張し、モデル生成陰性サンプルと説明を追加する。
TICLは従来の最先端技術に対して最大91.5%を達成し、パーソナライズされたアライメントタスクのための競争的なチューニング不要のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-02-13T05:20:21Z) - Towards Empathetic Conversational Recommender Systems [77.53167131692]
本稿では,共感型会話レコメンデータ(ECR)フレームワークを提案する。
ECRには、感情対応アイテムレコメンデーションと感情対応応答生成という、2つの主要なモジュールが含まれている。
ReDialデータセットの実験は、推奨精度を高め、ユーザの満足度を向上させる上で、我々のフレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2024-08-30T15:43:07Z) - RefuteBench: Evaluating Refuting Instruction-Following for Large Language Models [17.782410287625645]
本稿では,質問応答,機械翻訳,電子メール作成などのタスクをカバーするベンチマークRefuteBenchを提案する。
評価の目的は、モデルが反響命令の形で肯定的にフィードバックを受けられるか、会話を通してユーザー要求に一貫して従えられるかを評価することである。
論文 参考訳(メタデータ) (2024-02-21T01:39:56Z) - Recommendations by Concise User Profiles from Review Text [24.408292545170944]
この研究は、非常に疎いインタラクションを持つユーザの難解かつ過小評価されたケースに対処する。
LLMを通して全てのレビューの全文をフィードすることは、信号とノイズの比が弱く、処理されたトークンのコストが高くなる。
このフレームワークは、まず簡潔なユーザプロファイルを計算し、これらのみをトランスフォーマーベースのレコメンデータのトレーニングに投入する。
論文 参考訳(メタデータ) (2023-11-02T15:31:12Z) - Automating App Review Response Generation [67.58267006314415]
本稿では,レビューと回答の知識関係を学習することで,レビュー応答を自動的に生成する新しいアプローチRRGenを提案する。
58のアプリと309,246のレビュー-レスポンスペアの実験では、RRGenはBLEU-4の点で少なくとも67.4%のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-10T05:23:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。