論文の概要: Local Prompt Optimization
- arxiv url: http://arxiv.org/abs/2504.20355v1
- Date: Tue, 29 Apr 2025 01:45:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.71739
- Title: Local Prompt Optimization
- Title(参考訳): 局所プロンプト最適化
- Authors: Yash Jain, Vishal Chowdhary,
- Abstract要約: Local Prompt Optimizationは、任意の一般的な自動プロンプトエンジニアリング手法と統合される。
我々は,Math Reasoning(GSM8kとMultiArithm)とBIG-bench Hardベンチマークの性能改善を観察した。
- 参考スコア(独自算出の注目度): 0.6906005491572401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the use of prompts to guide the output of Large Language Models have increased dramatically. However, even the best of experts struggle to choose the correct words to stitch up a prompt for the desired task. To solve this, LLM driven prompt optimization emerged as an important problem. Existing prompt optimization methods optimize a prompt globally, where in all the prompt tokens have to be optimized over a large vocabulary while solving a complex task. The large optimization space (tokens) leads to insufficient guidance for a better prompt. In this work, we introduce Local Prompt Optimization (LPO) that integrates with any general automatic prompt engineering method. We identify the optimization tokens in a prompt and nudge the LLM to focus only on those tokens in its optimization step. We observe remarkable performance improvements on Math Reasoning (GSM8k and MultiArith) and BIG-bench Hard benchmarks across various automatic prompt engineering methods. Further, we show that LPO converges to the optimal prompt faster than global methods.
- Abstract(参考訳): 近年,大規模言語モデルの出力を導くプロンプトの利用が劇的に増加している。
しかし、優れた専門家でさえ、望ましいタスクのプロンプトを縫うために正しい単語を選択するのに苦労しています。
この問題を解決するために、LLMによる迅速な最適化が重要な問題として浮上した。
既存のプロンプト最適化手法は世界中にプロンプトを最適化し、複雑なタスクを解きながら、すべてのプロンプトトークンを大きな語彙で最適化する必要がある。
大規模な最適化スペース(トークン)は、より良いプロンプトのためのガイダンスを不十分にします。
本研究では,汎用的な自動プロンプト工学手法と統合したローカルプロンプト最適化(LPO)を提案する。
我々は、最適化トークンをプロンプトで識別し、最適化ステップにおいて、それらのトークンのみにフォーカスするようLLMに訴える。
我々は,様々な自動プロンプト工学手法を用いて,Math Reasoning (GSM8kとMultiArith) とBIG-bench Hardベンチマークの性能改善を行った。
さらに,LPOはグローバル手法よりも高速に最適に収束することを示す。
関連論文リスト
- CAPO: Cost-Aware Prompt Optimization [3.0290544952776854]
大規模言語モデル(LLM)は、単にプロンプトによって導かれる幅広いタスクを解くことで、自然言語処理に革命をもたらした。
本稿では,AutoML技術を統合することにより,迅速な最適化効率を向上させるアルゴリズムCAPOを紹介する。
実験の結果,CAPOは11/15例において21%pまで改善された場合において,最先端の離散的プロンプト最適化法よりも優れていた。
論文 参考訳(メタデータ) (2025-04-22T16:14:31Z) - Bandit-Based Prompt Design Strategy Selection Improves Prompt Optimizers [1.5845117761091052]
本稿では,プロンプト設計のための明示的な選択機構を実装した sTrategy Selection (OPTS) を提案する。
我々はトンプソンサンプリングに基づくアプローチを含む3つのメカニズムを提案し、それらをEvoPromptに統合する。
提案手法は,エボプロンプトの性能向上に寄与することが示唆された。
論文 参考訳(メタデータ) (2025-03-03T04:24:04Z) - GReaTer: Gradients over Reasoning Makes Smaller Language Models Strong Prompt Optimizers [52.17222304851524]
本稿では,タスク固有の推論よりも勾配情報を直接組み込む新しいプロンプト最適化手法であるGReaTerを紹介する。
GReaTerはタスク損失勾配を利用して、オープンソースの軽量言語モデルのためのプロンプトの自己最適化を可能にする。
GReaTerは、従来の最先端のプロンプト最適化手法を一貫して上回っている。
論文 参考訳(メタデータ) (2024-12-12T20:59:43Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - Symbolic Prompt Program Search: A Structure-Aware Approach to Efficient Compile-Time Prompt Optimization [14.012833238074332]
本稿では,プロンプトプログラムのコンパイル時最適化を行うSAMMOを紹介する。
SAMMOは記号レベルでプロンプトプログラムを表しており、豊富な変換が可能である。
SAMMOは,(1)命令チューニング,(2)RAGパイプラインチューニング,(3)プロンプト圧縮において,従来の手法を一般化し,複雑なプロンプトの性能を向上させることを示す。
論文 参考訳(メタデータ) (2024-04-02T21:35:54Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - Large Language Models as Optimizers [106.52386531624532]
本稿では,大規模言語モデル (LLM) をプロンプトとして活用するためのシンプルで効果的な手法である Prompting (OPRO) を提案する。
各最適化ステップにおいて、LLMは、前述した値を含むプロンプトから新しい解を生成する。
OPROにより最適化された最良のプロンプトは、GSM8Kで最大8%、Big-Bench Hardタスクで最大50%向上することを示した。
論文 参考訳(メタデータ) (2023-09-07T00:07:15Z) - Prompt Space Optimizing Few-shot Reasoning Success with Large Language Models [7.453926835095568]
プロンプトエンジニアリングにより、算術的推論、質問応答、要約、関係抽出、機械翻訳、感情分析などの様々なタスクにおいて、大きな言語モデル(LLM)が優れている。
現在のアプローチでは、最適なプロンプトを決定するための厳密な数学的解決策が欠如している。
提案手法では,テキスト埋め込みを用いて行列分解による基底ベクトルを取得し,すべてのプロンプトを表す空間を構築する。
論文 参考訳(メタデータ) (2023-06-06T15:43:16Z) - Robust Prompt Optimization for Large Language Models Against
Distribution Shifts [80.6757997074956]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて重要な能力を示している。
本稿では,LLMの分散シフトに対するロバストな最適化法を提案する。
この問題は、ラベル付けされたソースグループに最適化されたプロンプトを同時にラベル付けされていないターゲットグループに一般化する必要がある。
論文 参考訳(メタデータ) (2023-05-23T11:30:43Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。