論文の概要: A Toolbox for Improving Evolutionary Prompt Search
- arxiv url: http://arxiv.org/abs/2511.05120v1
- Date: Fri, 07 Nov 2025 10:04:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.731694
- Title: A Toolbox for Improving Evolutionary Prompt Search
- Title(参考訳): 進化的プロンプト探索のためのツールボックス
- Authors: Daniel Grießhaber, Maximilian Kimmich, Johannes Maucher, Ngoc Thang Vu,
- Abstract要約: 進化的プロンプト最適化はLLMの精製プロンプトの有効性を示した。
既存のアプローチには、堅牢な演算子と効率的な評価機構が欠如している。
本稿では,進化的プロンプト最適化におけるいくつかの重要な改良点を提案する。
- 参考スコア(独自算出の注目度): 19.376387158049067
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Evolutionary prompt optimization has demonstrated effectiveness in refining prompts for LLMs. However, existing approaches lack robust operators and efficient evaluation mechanisms. In this work, we propose several key improvements to evolutionary prompt optimization that can partially generalize to prompt optimization in general: 1) decomposing evolution into distinct steps to enhance the evolution and its control, 2) introducing an LLM-based judge to verify the evolutions, 3) integrating human feedback to refine the evolutionary operator, and 4) developing more efficient evaluation strategies that maintain performance while reducing computational overhead. Our approach improves both optimization quality and efficiency. We release our code, enabling prompt optimization on new tasks and facilitating further research in this area.
- Abstract(参考訳): 進化的プロンプト最適化はLLMの精製プロンプトの有効性を示した。
しかし、既存のアプローチでは、堅牢な演算子と効率的な評価機構が欠如している。
本研究では,進化的プロンプト最適化におけるいくつかの重要な改良点を提案する。
1)進化とその制御を強化するために、進化を別段に分解する。
2 LLMに基づく審査員の導入により、進化の検証を行う。
3)人間のフィードバックを統合して進化オペレーターを洗練させ、
4)計算オーバーヘッドを低減しつつ、性能を維持するためのより効率的な評価戦略を開発すること。
私たちのアプローチは最適化の品質と効率の両方を改善します。
コードをリリースし、新しいタスクの迅速な最適化を可能にし、この分野のさらなる研究を容易にします。
関連論文リスト
- EvoX: Meta-Evolution for Automated Discovery [115.89434419482797]
EvoXは、独自の進化過程を最適化する適応進化法である。
進捗に応じて、事前のソリューションが選択され、どのように変化するかを継続的に更新する。
AlphaEvolve, OpenEvolve, GEPA, ShinkaEvolveなどの既存のAI駆動の進化的手法を、タスクの大部分で上回っている。
論文 参考訳(メタデータ) (2026-02-26T18:54:41Z) - Learning from Prompt itself: the Hierarchical Attribution Prompt Optimization [13.8868879878572]
構造化最適化アプローチでは、改良されたプロンプトを開発するには、自動または半自動の手順が必要である。
現在のプロンプト最適化手法は、しばしばプロンプトドリフトを誘導し、新しいプロンプトが前の障害を修正するが、以前成功したタスクのパフォーマンスを損なう。
本研究では,(1)学習データにおける誤りパターンをターゲットとした動的帰属機構,(2)機能的プロンプトセグメントを編集するための意味単位最適化,(3)エンドツーエンドのLSMとLM-MLLMの両方をサポートするマルチモーダル・フレンドリなプロンプト・プロンプト・フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-06T03:34:17Z) - Beyond Algorithm Evolution: An LLM-Driven Framework for the Co-Evolution of Swarm Intelligence Optimization Algorithms and Prompts [2.7320188728052064]
本稿では,Swarmインテリジェンスアルゴリズムと誘導プロンプトの協調進化のための新しいフレームワークを提案する。
このフレームワークはNP問題に対して厳格に評価され、優れた性能を示した。
我々の研究は群知能最適化アルゴリズムの新しいパラダイムを確立し、即時進化の必然的な役割を浮き彫りにする。
論文 参考訳(メタデータ) (2025-12-10T00:37:16Z) - LLM4EO: Large Language Model for Evolutionary Optimization in Flexible Job Shop Scheduling [4.782301990330074]
この研究は、Large Language Models (LLM)を活用して進化力学を理解し、演算子レベルのメタ進化を可能にする。
提案するフレームワーク LLM4EO は,知識伝達に基づく演算子設計,進化知覚と解析,適応演算子進化の3つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2025-11-20T15:56:09Z) - Make Optimization Once and for All with Fine-grained Guidance [78.14885351827232]
Learning to Optimize (L2O)は、統合ニューラルネットワークによる最適化効率を向上させる。
L2Oパラダイムは、例えば、リフィット、目に見えない解決策を反復的または直接的に生成するなど、大きな成果を達成する。
そこで本研究では,Diff-L2Oと呼ばれる学習最適化のための一般的なフレームワークについて検討した。
論文 参考訳(メタデータ) (2025-03-14T14:48:12Z) - Improving Retrospective Language Agents via Joint Policy Gradient Optimization [57.35348425288859]
RetroActは、言語エージェントのタスク計画と自己反射進化機能を共同で最適化するフレームワークである。
模倣学習と強化学習を統合した2段階共同最適化プロセスを開発した。
RetroActはタスクのパフォーマンスと意思決定プロセスを大幅に改善しています。
論文 参考訳(メタデータ) (2025-03-03T12:54:54Z) - Can Large Language Models Be Trusted as Evolutionary Optimizers for Network-Structured Combinatorial Problems? [8.431866560904753]
大規模言語モデル(LLM)は、言語理解とさまざまなドメイン間の推論において強力な能力を示している。
本研究では,問題構造に係わるLLMの能力を評価するための体系的枠組みを提案する。
我々は、よく使われる進化的手法(EVO)を採用し、LLM演算子の出力忠実度を厳格に評価する包括的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-25T05:19:19Z) - REVOLVE: Optimizing AI Systems by Tracking Response Evolution in Textual Optimization [42.570114760974946]
本稿では,大規模な言語モデル(LLM)において,反復的に「EVOLVE」を「R」で表現する手法であるREVOLVEを紹介する。
実験の結果、REVOLVEは競争ベースラインを上回り、迅速な最適化が7.8%向上し、ソリューションの改良が20.72%向上し、コード最適化が29.17%向上した。
論文 参考訳(メタデータ) (2024-12-04T07:44:35Z) - A Problem-Oriented Perspective and Anchor Verification for Code Optimization [43.28045750932116]
大規模言語モデル(LLM)は、様々なプログラミングタスクを解く際、顕著な能力を示している。
本稿では,LLMが最小実行時間に最適化する能力について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
グラディエントにインスパイアされた Prompt ベースの GPO を開発した。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - Studying Evolutionary Solution Adaption Using a Flexibility Benchmark Based on a Metal Cutting Process [39.05320053926048]
システム柔軟性のためのバイオインスパイアされたフレームワークの観点から、異なる生産要件を最適化することを検討する。
NSGA-IIの柔軟性は,1)2つのタスクの解を同時に最適化し,より適応性が高いと期待されるソース間の解を得る,2)アクティベートあるいは非アクティベート可能な様々な可能性に対応する,アクティブな非アクティブなジェノタイプという2つの変種によって拡張される。
論文 参考訳(メタデータ) (2023-05-31T12:07:50Z) - DECN: Evolution Inspired Deep Convolution Network for Black-box Optimization [9.878660285945728]
本稿では、自動EAの概念を紹介します。 自動EAは、関心の問題における構造を利用して、自動更新ルールを生成する。
手動で設計したEAから手動の介入なしに自動化されたEAへの移行を実現するために、深層進化畳み込みネットワーク(DECN)を設計する。
論文 参考訳(メタデータ) (2023-04-19T12:14:01Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。