論文の概要: PromptTailor: Multi-turn Intent-Aligned Prompt Synthesis for Lightweight LLMs
- arxiv url: http://arxiv.org/abs/2511.21725v1
- Date: Thu, 20 Nov 2025 22:17:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.368168
- Title: PromptTailor: Multi-turn Intent-Aligned Prompt Synthesis for Lightweight LLMs
- Title(参考訳): PromptTailor:軽量LDM用マルチターンインテントアライメントプロンプト合成
- Authors: Yizhou Xu, Janet Davis,
- Abstract要約: 本稿では,オープンエンドテキストのプロンプトタイラー生成を制御可能なシステムであるPromptTailorを紹介する。
インテントアラインのプロンプト合成により、モデル出力品質を向上させる。
このシステムはLlama3-8Bの量子化モデルであり、軽量のLoRAアダプターで微調整されている。
- 参考スコア(独自算出の注目度): 6.220520502038547
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lightweight language models remain attractive for on-device and privacy-sensitive applications, but their responses are highly sensitive to prompt quality. For open-ended generation, non-expert users often lack the knowledge or time to consistently craft high-quality prompts, leading them to rely on prompt optimization tools. However, a key challenge is ensuring the optimized prompts genuinely align with users' original intents and preferences. We introduce PromptTailor, a system for controllable prompt generation for open-ended text that improves model output quality by intent-aligned prompt synthesis. PromptTailor expands minimal user instructions into rich, domain-aware prompts while preserving the user's stated preferences. The system is a quantized Llama3-8B model fine-tuned with a lightweight LoRA adapter on 12,300 prompt-refinement dialogues spanning 41 everyday domains, distilled from three stronger LLMs. The adapter attaches to any Llama3-8B base, enabling edge deployment. In human and LLM-judge evaluations across multiple target models and optimization baselines, PromptTailor yields higher preference rates than chain-of-thought prompting and matches or surpasses state-of-the-art prompt optimization methods while requiring fewer model calls (e.g., 3 vs. 9). These results show that a compact student, guided by powerful teachers, can learn effective prompt-generation strategies that enhance response quality while maintaining alignment with user intent.
- Abstract(参考訳): 軽量言語モデルは、オンデバイスおよびプライバシに敏感なアプリケーションには魅力的なままだが、その応答は、迅速な品質に非常に敏感である。
オープンエンド世代では、非専門家のユーザは、高品質なプロンプトを一貫して作成する知識や時間を欠くことが多く、即時最適化ツールに依存している。
しかし、重要な課題は、最適化されたプロンプトがユーザーの本来の意図や好みと真に一致することを保証することである。
PromptTailorはオープンエンドテキストの制御可能なプロンプト生成システムであり、インテントアラインなプロンプト合成によりモデル出力品質を向上させる。
PromptTailorは、ユーザの指定した好みを維持しながら、最小限のユーザ命令をリッチなドメイン認識プロンプトに拡張する。
このシステムはLlama3-8Bモデルで、41の日常ドメインにまたがる12,300のプロンプト・リファインメント・ダイアログ上に、軽量のLoRAアダプタで微調整され、3つの強力なLLMから蒸留される。
アダプタは任意のLlama3-8Bベースにアタッチされ、エッジ展開が可能である。
複数のターゲットモデルと最適化ベースラインにわたる人間とLLM-judgeの評価では、PromptTailorはチェーン・オブ・ソート・プロンプトよりも高い選好率を示し、モデル呼び出しを少なくし(例:3対9)、最先端のプロンプト・プロンプト・最適化手法に適合または超えている。
これらの結果から,強力な教師が指導するコンパクトな学生は,ユーザ意図の整合性を維持しつつ,応答の質を高める効果的な即時生成戦略を学習できることが示唆された。
関連論文リスト
- Promptomatix: An Automatic Prompt Optimization Framework for Large Language Models [72.4723784999432]
LLM(Large Language Models)は、巧妙なプロンプトで最高の性能を発揮するが、プロンプトは手動で、一貫性がなく、非専門家にはアクセスできない。
Promptomatixは、手作業のチューニングやドメインの専門知識を必要とせずに、自然言語のタスク記述を高品質なプロンプトに変換する。
システムは、ユーザ意図を分析し、合成トレーニングデータを生成し、プロンプト戦略を選択し、コストを意識した目標を使用してプロンプトを洗練する。
論文 参考訳(メタデータ) (2025-07-17T18:18:20Z) - Rethinking Prompt Optimizers: From Prompt Merits to Optimization [14.01541576309104]
MePOはメリット誘導型プロンプトデータセットでトレーニングされた、メリット誘導型でローカルにデプロイ可能なプロンプトである。
MePOはオンライン最適化を避け、プライバシーの懸念を減らし、明確で解釈可能なメリットを学習することで、大規模な推論モデルと軽量推論モデルの両方に効果的に一般化する。
論文 参考訳(メタデータ) (2025-05-15T03:31:37Z) - GReaTer: Gradients over Reasoning Makes Smaller Language Models Strong Prompt Optimizers [52.17222304851524]
本稿では,タスク固有の推論よりも勾配情報を直接組み込む新しいプロンプト最適化手法であるGReaTerを紹介する。
GReaTerはタスク損失勾配を利用して、オープンソースの軽量言語モデルのためのプロンプトの自己最適化を可能にする。
GReaTerは、従来の最先端のプロンプト最適化手法を一貫して上回っている。
論文 参考訳(メタデータ) (2024-12-12T20:59:43Z) - IPO: Interpretable Prompt Optimization for Vision-Language Models [40.83071220530289]
本稿では,シンプルだが解釈可能なプロンプト(IPO)を紹介する。
IPOは大規模言語モデル(LLM)を使用してテキストプロンプトを動的に生成する。
画像記述を生成することで、視覚的内容の条件付けに大型マルチモーダルモデル(LMM)を組み込む。
論文 参考訳(メタデータ) (2024-10-20T14:10:22Z) - Intent-based Prompt Calibration: Enhancing prompt optimization with
synthetic boundary cases [2.6159111710501506]
本稿では,ユーザ意図に対するプロンプトを反復的に洗練するキャリブレーションプロセスを用いて,自動プロンプトエンジニアリングの新しい手法を提案する。
我々は,モデレーションや生成といった現実的なタスクにおいて,強力なプロプライエタリなモデルに対して,本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-02-05T15:28:43Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。