論文の概要: PromptAgent: Strategic Planning with Language Models Enables
Expert-level Prompt Optimization
- arxiv url: http://arxiv.org/abs/2310.16427v2
- Date: Thu, 7 Dec 2023 14:39:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 18:12:39.221265
- Title: PromptAgent: Strategic Planning with Language Models Enables
Expert-level Prompt Optimization
- Title(参考訳): PromptAgent: エキスパートレベルのPrompt最適化を可能にする言語モデルによる戦略的計画
- Authors: Xinyuan Wang, Chenxi Li, Zhen Wang, Fan Bai, Haotian Luo, Jiayou
Zhang, Nebojsa Jojic, Eric P. Xing, Zhiting Hu
- Abstract要約: PromptAgentは、エキスパートレベルのプロンプトを、専門家による手工芸品と同等の品質で作成する最適化手法である。
PromptAgentは人間のような試行錯誤の探索にインスパイアされ、専門家レベルの正確な洞察と詳細な指示を誘導する。
PromptAgentを3つの実践領域にまたがる12のタスクに適用する。
- 参考スコア(独自算出の注目度): 60.00631098364391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Highly effective, task-specific prompts are often heavily engineered by
experts to integrate detailed instructions and domain insights based on a deep
understanding of both instincts of large language models (LLMs) and the
intricacies of the target task. However, automating the generation of such
expert-level prompts remains elusive. Existing prompt optimization methods tend
to overlook the depth of domain knowledge and struggle to efficiently explore
the vast space of expert-level prompts. Addressing this, we present
PromptAgent, an optimization method that autonomously crafts prompts equivalent
in quality to those handcrafted by experts. At its core, PromptAgent views
prompt optimization as a strategic planning problem and employs a principled
planning algorithm, rooted in Monte Carlo tree search, to strategically
navigate the expert-level prompt space. Inspired by human-like trial-and-error
exploration, PromptAgent induces precise expert-level insights and in-depth
instructions by reflecting on model errors and generating constructive error
feedback. Such a novel framework allows the agent to iteratively examine
intermediate prompts (states), refine them based on error feedbacks (actions),
simulate future rewards, and search for high-reward paths leading to expert
prompts. We apply PromptAgent to 12 tasks spanning three practical domains:
BIG-Bench Hard (BBH), as well as domain-specific and general NLP tasks, showing
it significantly outperforms strong Chain-of-Thought and recent prompt
optimization baselines. Extensive analyses emphasize its capability to craft
expert-level, detailed, and domain-insightful prompts with great efficiency and
generalizability.
- Abstract(参考訳): 非常に効果的なタスク固有のプロンプトは、大言語モデル(llm)の本能と目的とするタスクの複雑さの両方の深い理解に基づいて、詳細な指示とドメイン洞察を統合するために専門家によって深く設計されることが多い。
しかし、そのような専門家レベルのプロンプトを自動生成することは、いまだ明白である。
既存のプロンプト最適化手法は、ドメイン知識の深さを見落とし、エキスパートレベルのプロンプトの広大な空間を効率的に探索するのに苦労する傾向がある。
この問題に対処するため,専門家が手工芸品に匹敵する品質を自律的に生成する最適化手法であるPromptAgentを提案する。
PromptAgentは、プロンプトを戦略的計画問題とみなし、モンテカルロ木探索に根ざした原理的な計画アルゴリズムを用いて、専門家レベルのプロンプト空間を戦略的にナビゲートする。
PromptAgentは人間のような試行錯誤の探索にインスパイアされ、モデルエラーを反映し、建設的なエラーフィードバックを生成することによって、専門家レベルの正確な洞察と詳細な指示を誘導する。
このような新しいフレームワークにより、エージェントは中間プロンプト(状態)を反復的に検証し、エラーフィードバック(アクション)に基づいてそれらを洗練し、将来の報酬をシミュレートし、専門家のプロンプトにつながるハイリワードパスを探すことができる。
我々は,3つの実践的領域にまたがる12のタスク,すなわち big-bench hard (bbh) と domain-specific and general nlp tasks に適用した。
広範な分析は、専門家レベル、詳細、ドメインの洞察に富んだプロンプトを、非常に効率性と汎用性で作ることができることを強調する。
関連論文リスト
- KnowAgent: Knowledge-Augmented Planning for LLM-Based Agents [54.09074527006576]
大規模言語モデル(LLM)は複雑な推論タスクにおいて大きな可能性を証明していますが、より高度な課題に取り組むには不十分です。
この不適切さは、主に言語エージェントのアクション知識が組み込まれていないことに起因する。
我々は、明示的な行動知識を取り入れることで、LLMの計画能力を高めるために設計された新しいアプローチであるKnowAgentを紹介する。
論文 参考訳(メタデータ) (2024-03-05T16:39:12Z) - Agent-Pro: Learning to Evolve via Policy-Level Reflection and
Optimization [55.29142200038241]
Agent-Proはポリシーレベルのリフレクションと最適化を備えたLLMベースのエージェントである。
過去の軌道と信念を反復的に反映し、より良い政策のために不合理な信念を微調整する。
Agent-Proは、BlackjackとTexas Hold'emの2つのゲームで評価され、バニラLLMと特殊モデルを上回っている。
論文 参考訳(メタデータ) (2024-02-27T15:09:20Z) - Improving Knowledge Extraction from LLMs for Task Learning through Agent
Analysis [4.055489363682198]
大規模言語モデル(LLM)は、タスク学習の知識源として大きな可能性を秘めている。
プロンプト工学は、LLMから知識を引き出すのに有効であることが示されているが、同時に、新しいタスクを具現化したエージェント学習のための、適切な、状況に根ざした知識を得るには不十分である。
本稿では,認知エージェントアプローチであるSTARSについて述べる。これは,迅速なエンジニアリングを拡張し,その制限を緩和し,エージェントがネイティブ言語能力,具体化,環境,ユーザ嗜好に適合する新たなタスク知識を取得できるようにする。
論文 参考訳(メタデータ) (2023-06-11T20:50:14Z) - ExpertPrompting: Instructing Large Language Models to be Distinguished
Experts [93.58012324415762]
ExpertPromptingは、著名な専門家として答えるために、大きな言語モデルの可能性を秘めている。
我々はGPT-3.5を使って新しい命令追跡データを作成し、ExpertLLaMAと呼ばれる競合するオープンソースのチャットアシスタントを訓練する。
論文 参考訳(メタデータ) (2023-05-24T03:51:31Z) - Learning from Guided Play: Improving Exploration for Adversarial
Imitation Learning with Simple Auxiliary Tasks [8.320969283401233]
本研究は, 探索における標準的, ナイーブなアプローチが, 最適な局所的最大値として表れることを示す。
複数の探索的補助的タスクのエキスパートによるデモンストレーションを活用するフレームワークであるLfGP(Learning from Guided Play)を提示する。
論文 参考訳(メタデータ) (2022-12-30T20:38:54Z) - Bayesian Optimization Augmented with Actively Elicited Expert Knowledge [13.551210295284733]
我々は、最適化をさらに加速することを目的として、専門家の知識をBOに組み込むという課題に取り組む。
本研究では,この課題に対するマルチタスク学習アーキテクチャを設計し,専門家の知識を共同で抽出し,目的関数を最小化することを目的とする。
シミュレーションと実際の人間の専門家による様々なベンチマーク関数の実験では、専門家の知識が偏っている場合でも、提案手法はBOを著しく高速化することが示された。
論文 参考訳(メタデータ) (2022-08-18T09:49:21Z) - A Persistent Spatial Semantic Representation for High-level Natural
Language Instruction Execution [54.385344986265714]
本稿では,言語行動とロボット行動のギャップを埋めるために,永続的な空間意味表現法を提案する。
一般的なステップバイステップ命令を完全に回避しながら、ALFREDベンチマークに対する我々のアプローチを評価し、最先端の結果を得る。
論文 参考訳(メタデータ) (2021-07-12T17:47:19Z) - Soft Expert Reward Learning for Vision-and-Language Navigation [94.86954695912125]
VLN(Vision-and-Language Navigation)は、エージェントが自然言語の指示に従うことで、目に見えない環境で特定の場所を見つける必要がある。
本稿では,VLNタスクの工学的設計と一般化問題を克服するために,ソフトエキスパート・リワード・ラーニング(SERL)モデルを導入する。
論文 参考訳(メタデータ) (2020-07-21T14:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。