論文の概要: ZERA: Zero-init Instruction Evolving Refinement Agent - From Zero Instructions to Structured Prompts via Principle-based Optimization
- arxiv url: http://arxiv.org/abs/2509.18158v1
- Date: Wed, 17 Sep 2025 01:47:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.433346
- Title: ZERA: Zero-init Instruction Evolving Refinement Agent - From Zero Instructions to Structured Prompts via Principle-based Optimization
- Title(参考訳): ZERA:Zero-init Instruction Evolving Refinement Agent - 原理に基づく最適化によるゼロ命令から構造化プロンプトへ
- Authors: Seungyoun Yi, Minsoo Khang, Sungrae Park,
- Abstract要約: ZERAはシステムとユーザプロンプトを共同で最適化する新しいフレームワークである。
ZERAは自動的に推定される重み付き8つの一般化可能な基準を用いてプロンプトをスコアし、構造化された批判に基づいてプロンプトを改訂する。
推論,要約,コード生成タスクにまたがる5つの大きな言語モデルと9つの多様なデータセットのZERAを評価する。
- 参考スコア(独自算出の注目度): 6.591649491003996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic Prompt Optimization (APO) improves large language model (LLM) performance by refining prompts for specific tasks. However, prior APO methods typically focus only on user prompts, rely on unstructured feedback, and require large sample sizes and long iteration cycles-making them costly and brittle. We propose ZERA (Zero-init Instruction Evolving Refinement Agent), a novel framework that jointly optimizes both system and user prompts through principled, low-overhead refinement. ZERA scores prompts using eight generalizable criteria with automatically inferred weights, and revises prompts based on these structured critiques. This enables fast convergence to high-quality prompts using minimal examples and short iteration cycles. We evaluate ZERA across five LLMs and nine diverse datasets spanning reasoning, summarization, and code generation tasks. Experimental results demonstrate consistent improvements over strong baselines. Further ablation studies highlight the contribution of each component to more effective prompt construction. Our implementation including all prompts is publicly available at https://github.com/younatics/zera-agent.
- Abstract(参考訳): 自動プロンプト最適化(APO)は、特定のタスクのプロンプトを書き換えることで、大きな言語モデル(LLM)のパフォーマンスを改善する。
しかしながら、以前のAPOメソッドは通常、ユーザのプロンプトのみにフォーカスし、構造化されていないフィードバックに依存し、大きなサンプルサイズと長いイテレーションサイクルを必要とする。
本稿では,ZERA(Zero-init Instruction Evolving Refinement Agent)を提案する。
ZERAスコアは、自動的に推論された重み付き8つの一般化可能な基準を使用してプロンプトをスコアし、これらの構造化された批判に基づいてプロンプトを改訂する。
これにより、最小限の例と短いイテレーションサイクルを使って、高品質なプロンプトへの高速収束が可能になる。
我々は、推論、要約、コード生成タスクにまたがる5つのLLMと9つの多様なデータセットのZERAを評価する。
実験結果は、強いベースラインよりも一貫した改善を示した。
さらなるアブレーション研究は、より効果的なプロンプト構築への各コンポーネントの貢献を強調している。
すべてのプロンプトを含む実装はhttps://github.com/younatics/zera-agent.comで公開されています。
関連論文リスト
- Better by Comparison: Retrieval-Augmented Contrastive Reasoning for Automatic Prompt Optimization [6.3914079241545885]
提案するCRPO(Contrastive Reasoning Prompt Optimization)は,検索拡張推論プロセスとして迅速な最適化を定式化する新しいフレームワークである。
私たちのアプローチでは、ヘルプステア2データセットからトップk参照プロンプトを検索します。
CRPOは、高品位と低品位を明示的に対比することにより、特定のプロンプトが失敗する理由を推論し、より堅牢で解釈可能な最適化を実現する。
論文 参考訳(メタデータ) (2025-09-02T08:45:29Z) - Reflection-Enhanced Meta-Optimization Integrating TextGrad-style Prompt Optimization with Memory-Driven Self-Evolution [0.0]
本稿では,メモリ拡張リフレクションRetrievalRAGモジュールと自己適応型メタコントローラを統合するフレームワークを提案する。
REMOは、計算オーバーヘッドの増加にもかかわらず、より安定で堅牢なチューニングを実現する。
論文 参考訳(メタデータ) (2025-08-26T07:25:45Z) - On the Role of Feedback in Test-Time Scaling of Agentic AI Workflows [71.92083784393418]
エージェントAI(自律的な計画と行動を行うシステム)は広く普及しているが、複雑なタスクにおけるタスクの成功率は低いままである。
推論時のアライメントは、サンプリング、評価、フィードバックの3つのコンポーネントに依存します。
本稿では,様々な形態の批判から抽出されたフィードバックを繰り返し挿入するIterative Agent Decoding(IAD)を紹介する。
論文 参考訳(メタデータ) (2025-04-02T17:40:47Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - CriSPO: Multi-Aspect Critique-Suggestion-guided Automatic Prompt Optimization for Text Generation [18.39379838806384]
本稿では,CriSPO(Prompt Optimization)アプローチを提案する。
CriSPO はコアコンポーネントとして critique-suggestion モジュールを導入している。
このモジュールは自然にアスペクトを発見し、これらのアスペクト間で生成された参照テキストを比較し、即時修正のための実行可能な提案を提供する。
マルチメトリック最適化によりCrisPOをさらに改善するため、複数のメトリクスにわたるタスクプロンプトのパフォーマンスを向上させるために、自動サフィックスチューニング(AST)拡張を導入する。
論文 参考訳(メタデータ) (2024-10-03T17:57:01Z) - Large Language Models Prompting With Episodic Memory [53.8690170372303]
本稿では,POEM(PrOmpting with Episodic Memory)を提案する。
テストフェーズでは、各テストクエリのサンプルのシーケンスを最適化し、エピソードメモリにおけるトップkで最も類似したトレーニング例から最も高い合計報酬を得るシーケンスを選択する。
その結果,POEMはテキスト分類タスクにおいてTEMPERAやRLPromptといった最近の技術よりも5.3%向上していることがわかった。
論文 参考訳(メタデータ) (2024-08-14T11:19:28Z) - PromptWizard: Task-Aware Prompt Optimization Framework [2.618253052454435]
大規模言語モデル(LLM)は、さまざまなドメインでAIを変換している。
手動プロンプトエンジニアリングは、労働集約的かつドメイン固有である。
本稿では、離散的なプロンプト最適化のための新しい完全に自動化されたフレームワークであるPromptWizardを紹介する。
論文 参考訳(メタデータ) (2024-05-28T17:08:31Z) - PREFER: Prompt Ensemble Learning via Feedback-Reflect-Refine [24.888093229577965]
提案する制約に対処するため,Prefer という,シンプルで普遍的で自動的な手法を提案する。
我々のPreferは、複数のタスクにおける最先端のパフォーマンスを、大きなマージンで達成する。
論文 参考訳(メタデータ) (2023-08-23T09:46:37Z) - Self-regulating Prompts: Foundational Model Adaptation without
Forgetting [112.66832145320434]
本稿では,PromptSRCと呼ばれる自己正規化フレームワークを提案する。
PromptSRCはタスク固有の汎用表現とタスクに依存しない汎用表現の両方に最適化するプロンプトを導く。
論文 参考訳(メタデータ) (2023-07-13T17:59:35Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。