論文の概要: A Toolbox for Improving Evolutionary Prompt Search
- arxiv url: http://arxiv.org/abs/2511.05120v1
- Date: Fri, 07 Nov 2025 10:04:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.731694
- Title: A Toolbox for Improving Evolutionary Prompt Search
- Title(参考訳): 進化的プロンプト探索のためのツールボックス
- Authors: Daniel Grießhaber, Maximilian Kimmich, Johannes Maucher, Ngoc Thang Vu,
- Abstract要約: 進化的プロンプト最適化はLLMの精製プロンプトの有効性を示した。
既存のアプローチには、堅牢な演算子と効率的な評価機構が欠如している。
本稿では,進化的プロンプト最適化におけるいくつかの重要な改良点を提案する。
- 参考スコア(独自算出の注目度): 19.376387158049067
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Evolutionary prompt optimization has demonstrated effectiveness in refining prompts for LLMs. However, existing approaches lack robust operators and efficient evaluation mechanisms. In this work, we propose several key improvements to evolutionary prompt optimization that can partially generalize to prompt optimization in general: 1) decomposing evolution into distinct steps to enhance the evolution and its control, 2) introducing an LLM-based judge to verify the evolutions, 3) integrating human feedback to refine the evolutionary operator, and 4) developing more efficient evaluation strategies that maintain performance while reducing computational overhead. Our approach improves both optimization quality and efficiency. We release our code, enabling prompt optimization on new tasks and facilitating further research in this area.
- Abstract(参考訳): 進化的プロンプト最適化はLLMの精製プロンプトの有効性を示した。
しかし、既存のアプローチでは、堅牢な演算子と効率的な評価機構が欠如している。
本研究では,進化的プロンプト最適化におけるいくつかの重要な改良点を提案する。
1)進化とその制御を強化するために、進化を別段に分解する。
2 LLMに基づく審査員の導入により、進化の検証を行う。
3)人間のフィードバックを統合して進化オペレーターを洗練させ、
4)計算オーバーヘッドを低減しつつ、性能を維持するためのより効率的な評価戦略を開発すること。
私たちのアプローチは最適化の品質と効率の両方を改善します。
コードをリリースし、新しいタスクの迅速な最適化を可能にし、この分野のさらなる研究を容易にします。
関連論文リスト
- Can Large Language Models Be Trusted as Evolutionary Optimizers for Network-Structured Combinatorial Problems? [8.431866560904753]
大規模言語モデル(LLM)は、言語理解とさまざまなドメイン間の推論において強力な能力を示している。
本研究では,問題構造に係わるLLMの能力を評価するための体系的枠組みを提案する。
我々は、よく使われる進化的手法(EVO)を採用し、LLM演算子の出力忠実度を厳格に評価する包括的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-25T05:19:19Z) - REVOLVE: Optimizing AI Systems by Tracking Response Evolution in Textual Optimization [42.570114760974946]
本稿では,大規模な言語モデル(LLM)において,反復的に「EVOLVE」を「R」で表現する手法であるREVOLVEを紹介する。
実験の結果、REVOLVEは競争ベースラインを上回り、迅速な最適化が7.8%向上し、ソリューションの改良が20.72%向上し、コード最適化が29.17%向上した。
論文 参考訳(メタデータ) (2024-12-04T07:44:35Z) - A Problem-Oriented Perspective and Anchor Verification for Code Optimization [43.28045750932116]
大規模言語モデル(LLM)は、様々なプログラミングタスクを解く際、顕著な能力を示している。
本稿では,LLMが最小実行時間に最適化する能力について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
グラディエントにインスパイアされた Prompt ベースの GPO を開発した。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - Studying Evolutionary Solution Adaption Using a Flexibility Benchmark Based on a Metal Cutting Process [39.05320053926048]
システム柔軟性のためのバイオインスパイアされたフレームワークの観点から、異なる生産要件を最適化することを検討する。
NSGA-IIの柔軟性は,1)2つのタスクの解を同時に最適化し,より適応性が高いと期待されるソース間の解を得る,2)アクティベートあるいは非アクティベート可能な様々な可能性に対応する,アクティブな非アクティブなジェノタイプという2つの変種によって拡張される。
論文 参考訳(メタデータ) (2023-05-31T12:07:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。