論文の概要: GreenTEA: Gradient Descent with Topic-modeling and Evolutionary Auto-prompting
- arxiv url: http://arxiv.org/abs/2508.16603v1
- Date: Tue, 12 Aug 2025 06:48:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-31 21:54:20.570863
- Title: GreenTEA: Gradient Descent with Topic-modeling and Evolutionary Auto-prompting
- Title(参考訳): GreenTEA: トピックモデリングと進化的オートプロンプティングを備えたグラディエントDescent
- Authors: Zheng Dong, Luming Shang, Gabriela Olinto,
- Abstract要約: GreenTEAは自動プロンプト最適化のためのエージェントワークフローである。
候補者の探索と知識の搾取のバランスをとる。
エラーサンプルからのフィードバックに基づいてプロンプトを反復的に洗練する。
- 参考スコア(独自算出の注目度): 2.085792950847639
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-quality prompts are crucial for Large Language Models (LLMs) to achieve exceptional performance. However, manually crafting effective prompts is labor-intensive and demands significant domain expertise, limiting its scalability. Existing automatic prompt optimization methods either extensively explore new prompt candidates, incurring high computational costs due to inefficient searches within a large solution space, or overly exploit feedback on existing prompts, risking suboptimal optimization because of the complex prompt landscape. To address these challenges, we introduce GreenTEA, an agentic LLM workflow for automatic prompt optimization that balances candidate exploration and knowledge exploitation. It leverages a collaborative team of agents to iteratively refine prompts based on feedback from error samples. An analyzing agent identifies common error patterns resulting from the current prompt via topic modeling, and a generation agent revises the prompt to directly address these key deficiencies. This refinement process is guided by a genetic algorithm framework, which simulates natural selection by evolving candidate prompts through operations such as crossover and mutation to progressively optimize model performance. Extensive numerical experiments conducted on public benchmark datasets suggest the superior performance of GreenTEA against human-engineered prompts and existing state-of-the-arts for automatic prompt optimization, covering logical and quantitative reasoning, commonsense, and ethical decision-making.
- Abstract(参考訳): 高品質なプロンプトは、LLM(Large Language Models)にとって、例外的なパフォーマンスを達成するために不可欠である。
しかし、効果的なプロンプトを手作業で作るのは労力がかかり、拡張性を制限するためにかなりのドメインの専門知識を必要とする。
既存の自動プロンプト最適化手法は、新しいプロンプト候補を広範囲に探索し、大規模なソリューション空間内での非効率な探索によって高い計算コストを発生させるか、あるいは既存のプロンプトに対するフィードバックを過度に活用する。
これらの課題に対処するために、候補探索と知識活用のバランスをとる自動プロンプト最適化のためのエージェントLLMワークフローであるGreenTEAを紹介する。
エージェントの協力的なチームを利用して、エラーサンプルからのフィードバックに基づいてプロンプトを反復的に洗練する。
分析エージェントは、トピックモデリングを介して現在のプロンプトから生じる共通エラーパターンを特定し、生成エージェントは、これらのキー欠陥に直接対処するプロンプトを更新する。
この改良プロセスは、クロスオーバーや突然変異といった操作を通じて自然選択をシミュレートし、モデル性能を漸進的に最適化する遺伝的アルゴリズムフレームワークによって導かれる。
公開ベンチマークデータセット上で実施された大規模な数値実験は、論理的および量的推論、常識、倫理的意思決定をカバーし、人工学的なプロンプトに対するGreenTEAの優れた性能と、自動的なプロンプト最適化のための既存の最先端技術について示唆している。
関連論文リスト
- Grammar-Guided Evolutionary Search for Discrete Prompt Optimisation [63.97051732013936]
本稿では,2段階からなる離散的な自動最適化に対する進化的探索手法を提案する。
第1段階では、文法誘導型遺伝的プログラミングが実行され、プロンプト生成プログラムを合成する。
第2段階では、局所探索を用いて、最高のパフォーマンスプログラムの周辺を探索する。
論文 参考訳(メタデータ) (2025-07-14T14:34:15Z) - Can Prompt Difficulty be Online Predicted for Accelerating RL Finetuning of Reasoning Models? [62.579951798437115]
本研究では任意のプロンプトの反復的近似評価について検討する。
Model Predictive Prompt Selection (MoPPS)はベイズにおけるリスク予測フレームワークである。
MoPPSは迅速な困難を確実に予測し、ロールアウトを大幅に削減したトレーニングを加速する。
論文 参考訳(メタデータ) (2025-07-07T03:20:52Z) - ORPP: Self-Optimizing Role-playing Prompts to Enhance Language Model Capabilities [64.24517317344959]
複雑なタスクにおいて、大きな言語モデルから優れたパフォーマンスを引き出すためには、高品質なプロンプトが不可欠である。
本稿では,ロールプレイングプロンプトの最適化と生成によりモデル性能を向上させるフレームワークORPPを提案する。
ORPPは一致しただけでなく、ほとんどの場合、性能の点で既存の主流のプロンプト最適化手法を上回ります。
論文 参考訳(メタデータ) (2025-06-03T05:51:35Z) - Tournament of Prompts: Evolving LLM Instructions Through Structured Debates and Elo Ratings [0.9437165725355702]
我々は,エロの選考による議論駆動評価を通じて,進化を促す新しいフレームワークであるDEEVOを紹介する。
Eloの格付けをフィットネスプロキシとして利用することで、DEEVOは同時に改善を推進し、迅速な人口の貴重な多様性を保ちます。
論文 参考訳(メタデータ) (2025-05-30T19:33:41Z) - MARS: A Multi-Agent Framework Incorporating Socratic Guidance for Automated Prompt Optimization [30.748085697067154]
ソクラティックガイダンス(MARS)を取り入れたマルチエージェントフレームワークを提案する。
MARSは7つのエージェントから構成され、それぞれ異なる機能を持ち、Plannerを自律的に使用して最適化パスを設計する。
提案手法の有効性を検証するため,様々なデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2025-03-21T06:19:55Z) - A Survey of Automatic Prompt Optimization with Instruction-focused Heuristic-based Search Algorithm [13.332569343755075]
大規模言語モデルは、様々な自然言語処理タスクにおいて顕著な成果をもたらしています。
手動の手法は効果的であるが、通常は直感に頼り、時間とともに自動的にプロンプトを洗練しない。
検索アルゴリズムを用いた自動プロンプト最適化は、人間の監視を最小限に抑えて、システマティックにプロンプトを探索し改善することができる。
論文 参考訳(メタデータ) (2025-02-26T01:42:08Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - Robust Prompt Optimization for Large Language Models Against
Distribution Shifts [80.6757997074956]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて重要な能力を示している。
本稿では,LLMの分散シフトに対するロバストな最適化法を提案する。
この問題は、ラベル付けされたソースグループに最適化されたプロンプトを同時にラベル付けされていないターゲットグループに一般化する必要がある。
論文 参考訳(メタデータ) (2023-05-23T11:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。