論文の概要: P3: Prompts Promote Prompting
- arxiv url: http://arxiv.org/abs/2507.15675v1
- Date: Mon, 21 Jul 2025 14:37:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.442386
- Title: P3: Prompts Promote Prompting
- Title(参考訳): P3: プロンプトはプロンプトを促進する
- Authors: Xinyu Zhang, Yuanquan Hu, Fangchao Liu, Zhicheng Dou,
- Abstract要約: 大規模言語モデル(LLM)アプリケーションはシステムとユーザの両方のプロンプトを含む複数のコンポーネントのプロンプトを使用することが多い。
本稿では,システムとユーザの両方のプロンプトを同時に最適化する,新しい自己改善フレームワークであるP3を紹介する。
一般タスクに関する大規模な実験は、P3が自動的なプロンプト最適化の領域で優れた性能を発揮することを示した。
- 参考スコア(独自算出の注目度): 26.16464064171255
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Current large language model (LLM) applications often employ multi-component prompts, comprising both system and user prompts, to guide model behaviors. While recent advancements have demonstrated the efficacy of automatically optimizing either the system or user prompt to boost performance, such unilateral approaches often yield suboptimal outcomes due to the interdependent nature of these components. In this work, we introduce P3, a novel self-improvement framework that concurrently optimizes both system and user prompts through an iterative process. The offline optimized prompts are further leveraged to promote online prompting by performing query-dependent prompt optimization. Extensive experiments on general tasks (e.g., Arena-hard and Alpaca-eval) and reasoning tasks (e.g., GSM8K and GPQA) demonstrate that P3 achieves superior performance in the realm of automatic prompt optimization. Our results highlight the effectiveness of a holistic optimization strategy in enhancing LLM performance across diverse domains.
- Abstract(参考訳): 現在の大規模言語モデル(LLM)アプリケーションは、システムとユーザの両方のプロンプトを含む複数コンポーネントのプロンプトを使用して、モデル動作をガイドすることが多い。
最近の進歩は、システムまたはユーザプロンプトを自動最適化してパフォーマンスを向上させる効果を示しているが、そのような一方的なアプローチは、これらのコンポーネントの相互依存性によって、しばしば準最適結果をもたらす。
本稿では,システムとユーザの両方のプロンプトを同時最適化する,新たな自己改善フレームワークであるP3を紹介する。
オフライン最適化プロンプトは、クエリ依存プロンプト最適化を実行することで、オンラインプロンプトを促進するためにさらに活用される。
一般タスク(例えば、Arena-hard や Alpaca-eval)と推論タスク(例えば、GSM8K や GPQA)の広範な実験は、P3 が自動的な即時最適化の領域で優れた性能を達成することを示した。
本研究は,多分野にわたるLLM性能向上における総合的最適化戦略の有効性を強調した。
関連論文リスト
- Grammar-Guided Evolutionary Search for Discrete Prompt Optimisation [63.97051732013936]
本稿では,2段階からなる離散的な自動最適化に対する進化的探索手法を提案する。
第1段階では、文法誘導型遺伝的プログラミングが実行され、プロンプト生成プログラムを合成する。
第2段階では、局所探索を用いて、最高のパフォーマンスプログラムの周辺を探索する。
論文 参考訳(メタデータ) (2025-07-14T14:34:15Z) - ORPP: Self-Optimizing Role-playing Prompts to Enhance Language Model Capabilities [64.24517317344959]
複雑なタスクにおいて、大きな言語モデルから優れたパフォーマンスを引き出すためには、高品質なプロンプトが不可欠である。
本稿では,ロールプレイングプロンプトの最適化と生成によりモデル性能を向上させるフレームワークORPPを提案する。
ORPPは一致しただけでなく、ほとんどの場合、性能の点で既存の主流のプロンプト最適化手法を上回ります。
論文 参考訳(メタデータ) (2025-06-03T05:51:35Z) - System Prompt Optimization with Meta-Learning [60.04718679054704]
本稿では,多様なユーザプロンプトに対して堅牢なシステムプロンプトを設計することを目的とした,バイレベルシステムプロンプト最適化の新たな課題を紹介する。
本稿では,複数のデータセットにまたがるさまざまなユーザプロンプトに対して最適化することで,システムプロンプトをメタラーニングするメタラーニングフレームワークを提案する。
5つの異なるドメインにまたがる14の未知のデータセットに対して実験を行い、このアプローチが多様なユーザプロンプトに効果的に一般化するシステムプロンプトを生成することを示す。
論文 参考訳(メタデータ) (2025-05-14T16:46:15Z) - Bandit-Based Prompt Design Strategy Selection Improves Prompt Optimizers [1.5845117761091052]
本稿では,プロンプト設計のための明示的な選択機構を実装した sTrategy Selection (OPTS) を提案する。
我々はトンプソンサンプリングに基づくアプローチを含む3つのメカニズムを提案し、それらをEvoPromptに統合する。
提案手法は,エボプロンプトの性能向上に寄与することが示唆された。
論文 参考訳(メタデータ) (2025-03-03T04:24:04Z) - TAPO: Task-Referenced Adaptation for Prompt Optimization [18.533289140594146]
本稿では,3つの鍵モジュールからなるマルチタスク対応プロンプト最適化フレームワークTAPOを紹介する。
まず、タスク固有のプロンプト生成機能を強化するために、タスク対応メトリック選択モジュールを提案する。
次に,複数視点からのプロンプトを共同評価するマルチメトリック評価モジュールを提案する。
第3に、自動プロンプト改善のための進化ベースの最適化フレームワークが導入され、様々なタスクへの適応性が改善されている。
論文 参考訳(メタデータ) (2025-01-12T02:43:59Z) - SPRIG: Improving Large Language Model Performance by System Prompt Optimization [45.96513122345295]
大きな言語モデル(LLM)は多くのシナリオで印象的な機能を示しているが、そのパフォーマンスはプロンプトの選択に依存している。
本研究では,モデルの性能を最大化するために,既定成分からのプロンプトを反復的に構築する編集に基づく遺伝的アルゴリズムであるSPRIGを提案する。
47種類のタスクの集合に対して,システムプロンプトの性能を評価し,一般化性を確保する。
論文 参考訳(メタデータ) (2024-10-18T18:51:44Z) - AMPO: Automatic Multi-Branched Prompt Optimization [43.586044739174646]
本稿では,障害事例をフィードバックとして多分岐プロンプトを反復的に開発する自動プロンプト最適化手法AMPOを提案する。
5つのタスクにわたる実験では、AMPOが常に最良の結果を達成する。
論文 参考訳(メタデータ) (2024-10-11T10:34:28Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。