論文の概要: PRESTO: Preimage-Informed Instruction Optimization for Prompting Black-Box LLMs
- arxiv url: http://arxiv.org/abs/2510.25808v1
- Date: Wed, 29 Oct 2025 09:07:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.502969
- Title: PRESTO: Preimage-Informed Instruction Optimization for Prompting Black-Box LLMs
- Title(参考訳): PRESTO:Black-Box LLMのプロンプティングのためのプリモージュインフォームインストラクション最適化
- Authors: Jaewon Chu, Seunghun Lee, Hyunwoo J. Kim,
- Abstract要約: 大規模言語モデル(LLM)は、命令追従能力の強いため、様々な領域で顕著な成功を収めている。
最近の手法では、最適化されたソフトプロンプトから候補命令を生成するために、ホワイトボックスLLMを使用している。
ホワイトボックスのLSMは、しばしば異なるソフトプロンプトを同じ命令にマッピングし、冗長なクエリをもたらす。
本稿では,ソフトプロンプトの事前構造を利用した新しいフレームワークであるPRESTOを紹介する。
- 参考スコア(独自算出の注目度): 35.77485317906575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have achieved remarkable success across diverse domains, due to their strong instruction-following capabilities. This has led to increasing interest in optimizing instructions for black-box LLMs, whose internal parameters are inaccessible but widely used due to their strong performance. To optimize instructions for black-box LLMs, recent methods employ white-box LLMs to generate candidate instructions from optimized soft prompts. However, white-box LLMs often map different soft prompts to the same instruction, leading to redundant queries. While previous studies regarded this many-to-one mapping as a structure that hinders optimization efficiency, we reinterpret it as a useful prior knowledge that can accelerate the optimization. To this end, we introduce PREimage-informed inSTruction Optimization (PRESTO), a novel framework that leverages the preimage structure of soft prompts for efficient optimization. PRESTO consists of three key components: (1) score sharing, which shares the evaluation score with all soft prompts in a preimage; (2) preimage-based initialization, which selects initial data points that maximize search space coverage using preimage information; and (3) score consistency regularization, which enforces prediction consistency within each preimage. By leveraging preimages, PRESTO achieves the effect of effectively obtaining 14 times more scored data under the same query budget, resulting in more efficient optimization. Experimental results on 33 instruction optimization tasks demonstrate the superior performance of PRESTO. Code is available at https://github.com/mlvlab/PRESTO
- Abstract(参考訳): 大規模言語モデル(LLM)は、命令追従能力の強いため、様々な領域で顕著な成功を収めている。
これにより、内部パラメータはアクセスできないが性能が強いため広く使われているブラックボックスLSMの命令の最適化への関心が高まっている。
ブラックボックスLSMの命令を最適化するために、最近の手法ではホワイトボックスLSMを用いて最適化されたソフトプロンプトから候補命令を生成する。
しかし、ホワイトボックスのLSMは、しばしば異なるソフトプロンプトを同じ命令にマッピングし、冗長なクエリをもたらす。
従来の研究では、この多対一マッピングは最適化効率を阻害する構造であると考えられていたが、最適化を加速できる有用な事前知識として再解釈した。
この目的のために,ソフトプロンプトの事前構造を利用して効率的な最適化を行う新しいフレームワークであるPreimage-informed InSTruction Optimization (PRESTO)を導入する。
PRESTO は,(1) 評価スコアを事前画像内のすべてのソフトプロンプトと共有するスコア共有,(2) 事前情報を用いて検索空間のカバレッジを最大化する初期データポイントを選択するプリモージベース初期化,(3) 事前画像内の予測一貫性を強制するスコア整合正則化の3つの重要な構成要素から構成される。
事前イメージを活用することで、PRESTOは、同じクエリ予算の下で14倍の採点データを効果的に取得する効果を達成し、より効率的な最適化を実現する。
33の命令最適化タスクの実験結果は、PRESTOの優れた性能を示している。
コードはhttps://github.com/mlvlab/PRESTOで入手できる。
関連論文リスト
- CAPO: Cost-Aware Prompt Optimization [3.0290544952776854]
大規模言語モデル(LLM)は、単にプロンプトによって導かれる幅広いタスクを解くことで、自然言語処理に革命をもたらした。
本稿では,AutoML技術を統合することにより,迅速な最適化効率を向上させるアルゴリズムCAPOを紹介する。
実験の結果,CAPOは11/15例において21%pの精度向上を達成し,最先端の離散的プロンプト最適化法よりも優れていた。
論文 参考訳(メタデータ) (2025-04-22T16:14:31Z) - LLM as a Complementary Optimizer to Gradient Descent: A Case Study in Prompt Tuning [69.95292905263393]
グラデーションベースとハイレベルなLLMは、協調最適化フレームワークを効果的に組み合わせることができることを示す。
本稿では,これらを相互に補完し,組み合わせた最適化フレームワークを効果的に連携させることができることを示す。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - Pretrained Optimization Model for Zero-Shot Black Box Optimization [16.391389860521134]
多様なタスクの最適化から得られた知識を活用する事前学習最適化モデル(POM)を提案する。
POMは、直接アプリケーションや数発のサンプルによる微調整を通じて、ゼロショット最適化の効率的なソリューションを提供する。
少数のサンプルと予算を持つ微調整POMは、大幅な性能改善をもたらす。
論文 参考訳(メタデータ) (2024-05-06T09:11:49Z) - Large Language Models as Optimizers [106.52386531624532]
本稿では,大規模言語モデル (LLM) をプロンプトとして活用するためのシンプルで効果的な手法である Prompting (OPRO) を提案する。
各最適化ステップにおいて、LLMは、前述した値を含むプロンプトから新しい解を生成する。
OPROにより最適化された最良のプロンプトは、GSM8Kで最大8%、Big-Bench Hardタスクで最大50%向上することを示した。
論文 参考訳(メタデータ) (2023-09-07T00:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。