論文の概要: Localized Zeroth-Order Prompt Optimization
- arxiv url: http://arxiv.org/abs/2403.02993v1
- Date: Tue, 5 Mar 2024 14:18:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 14:43:09.921490
- Title: Localized Zeroth-Order Prompt Optimization
- Title(参考訳): 局所零階プロンプト最適化
- Authors: Wenyang Hu, Yao Shu, Zongmin Yu, Zhaoxuan Wu, Xiangqiang Lin,
Zhongxiang Dai, See-Kiong Ng, Bryan Kian Hsiang Low
- Abstract要約: そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
- 参考スコア(独自算出の注目度): 54.964765668688806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The efficacy of large language models (LLMs) in understanding and generating
natural language has aroused a wide interest in developing prompt-based methods
to harness the power of black-box LLMs. Existing methodologies usually
prioritize a global optimization for finding the global optimum, which however
will perform poorly in certain tasks. This thus motivates us to re-think the
necessity of finding a global optimum in prompt optimization. To answer this,
we conduct a thorough empirical study on prompt optimization and draw two major
insights. Contrasting with the rarity of global optimum, local optima are
usually prevalent and well-performed, which can be more worthwhile for
efficient prompt optimization (Insight I). The choice of the input domain,
covering both the generation and the representation of prompts, affects the
identification of well-performing local optima (Insight II). Inspired by these
insights, we propose a novel algorithm, namely localized zeroth-order prompt
optimization (ZOPO), which incorporates a Neural Tangent Kernel-based derived
Gaussian process into standard zeroth-order optimization for an efficient
search of well-performing local optima in prompt optimization. Remarkably, ZOPO
outperforms existing baselines in terms of both the optimization performance
and the query efficiency, which we demonstrate through extensive experiments.
- Abstract(参考訳): 自然言語の理解と生成における大規模言語モデル(LLM)の有効性は、ブラックボックスLLMのパワーを利用するプロンプトベースの手法の開発に広く関心を集めている。
既存の方法論は通常、グローバル最適化を見つけるためにグローバル最適化を優先するが、特定のタスクではうまく機能しない。
これにより、迅速な最適化において、グローバルな最適化を見つける必要性を再考する動機となる。
そこで我々は,迅速な最適化に関する徹底的な実証研究を行い,二つの重要な知見を導き出す。
グローバル最適化のラリティーとは対照的に、ローカルオプティマは通常広く普及し、よく表現され、効率的なプロンプト最適化(insight i)に価値がある。
入力領域の選択は、プロンプトの生成と表現の両方をカバーし、パフォーマンスの良い局所最適化(Insight II)の識別に影響を与える。
これらの知見に触発されて,ニューラル・タンジェント・カーネルをベースとしたガウス過程を標準ゼロ階最適化に組み込んだ局所最適化アルゴリズムZOPOを提案する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から既存のベースラインを上回り、広範囲な実験を通して実証する。
関連論文リスト
- Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - PhaseEvo: Towards Unified In-Context Prompt Optimization for Large
Language Models [9.362082187605356]
本稿では、LLMの生成能力と進化アルゴリズムのグローバル検索能力を組み合わせた効率的な自動プロンプト最適化フレームワークであるPhaseEvoについて述べる。
PhaseEvoは、優れた効率を維持しながら、最先端のベースライン手法を大きなマージンで大幅に上回っている。
論文 参考訳(メタデータ) (2024-02-17T17:47:10Z) - Towards Efficient Exact Optimization of Language Model Alignment [93.39181634597877]
嗜好データから直接ポリシーを最適化するために、直接選好最適化(DPO)が提案された。
問題の最適解に基づいて導出されたDPOが,現実の最適解の妥協平均探索近似に繋がることを示す。
本稿では、アライメント目的の効率的な精度最適化(EXO)を提案する。
論文 参考訳(メタデータ) (2024-02-01T18:51:54Z) - Large Language Models as Optimizers [106.52386531624532]
本稿では,大規模言語モデル (LLM) をプロンプトとして活用するためのシンプルで効果的な手法である Prompting (OPRO) を提案する。
各最適化ステップにおいて、LLMは、前述した値を含むプロンプトから新しい解を生成する。
OPROにより最適化された最良のプロンプトは、GSM8Kで最大8%、Big-Bench Hardタスクで最大50%向上することを示した。
論文 参考訳(メタデータ) (2023-09-07T00:07:15Z) - Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - The Behavior and Convergence of Local Bayesian Optimization [20.568490114736818]
局所最適化戦略は、従来のグローバル戦略と比較して高次元問題に対して強い経験的性能をもたらすことができる。
まず,局所的なアプローチの挙動を考察し,ガウス過程のサンプルパスの個々の局所解の統計値が,グローバルな手法から得られるであろうものと比較して驚くほど良好であることを示す。
論文 参考訳(メタデータ) (2023-05-24T21:11:49Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Optimistic Optimization of Gaussian Process Samples [30.226274682578172]
競合する、計算的により効率的でグローバルな最適化フレームワークは楽観的な最適化であり、これは探索空間の幾何学に関する事前知識を相似関数として利用している。
幾何的探索と確率的探索の間には新たな研究領域があり、ベイズ最適化の重要な機能を保ちながら、従来のベイズ最適化よりも大幅に高速に実行される方法がある。
論文 参考訳(メタデータ) (2022-09-02T09:06:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。