論文の概要: Offline Prompt Evaluation and Optimization with Inverse Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2309.06553v1
- Date: Wed, 13 Sep 2023 01:12:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 16:34:08.932479
- Title: Offline Prompt Evaluation and Optimization with Inverse Reinforcement
Learning
- Title(参考訳): 逆強化学習によるオフライン迅速評価と最適化
- Authors: Hao Sun
- Abstract要約: この研究は、オフライン逆強化学習に根ざしたアプローチであるPrompt-OIRLを導入している。
Prompt-OIRLの利点は多様体であり、即時性能を予測し、コスト効率を高くし、可読性のある結果を生成し、プロンプト空間を効率的にナビゲートする。
- 参考スコア(独自算出の注目度): 8.044033685073003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent advances in the development of Large Language Models (LLMs) like
ChatGPT have achieved remarkable performance by leveraging human expertise.
Yet, fully eliciting LLMs' potential for complex tasks requires navigating the
vast search space of natural language prompts. While prompt engineering has
shown promise, the requisite human-crafted prompts in trial-and-error attempts
and the associated costs pose significant challenges. Crucially, the efficiency
of prompt optimization hinges on the costly procedure of prompt evaluation.
This work introduces Prompt-OIRL, an approach rooted in offline inverse
reinforcement learning that seeks to bridge the gap between effective prompt
evaluation and affordability. Our method draws on offline datasets from expert
evaluations, employing Inverse-RL to derive a reward model for offline,
query-dependent prompt evaluations. The advantages of Prompt-OIRL are manifold:
it predicts prompt performance, is cost-efficient, produces human-readable
results, and efficiently navigates the prompt space. We validate our method
across four LLMs and three arithmetic datasets, highlighting its potential as a
robust and effective tool for offline prompt evaluation and optimization. Our
code as well as the offline datasets are released, and we highlight the
Prompt-OIRL can be reproduced within a few hours using a single laptop using
CPU
- Abstract(参考訳): ChatGPTのような大規模言語モデル(LLM)の開発における最近の進歩は、人間の専門知識を活用することで、目覚ましい成果を上げている。
しかし、複雑なタスクに対するLLMの可能性を十分に引き出すには、自然言語プロンプトの広大な検索空間をナビゲートする必要がある。
プロンプトエンジニアリングは約束を示しているが、試行錯誤の必要なプロンプトと関連するコストは重大な課題をもたらす。
重要なことは、迅速な最適化の効率は、迅速な評価のコストのかかる手順に依存する。
この研究は、オフライン逆強化学習に根ざしたアプローチであるPrompt-OIRLを導入し、効果的な迅速な評価と手頃さのギャップを埋めようとしている。
提案手法はエキスパート評価からオフラインデータセットを抽出し,Inverse-RLを用いてオフラインでクエリ依存のプロンプト評価を行う。
prompt-oirl の利点は多様体であり、即席性能を予測し、コスト効率が良く、可読性のある結果を生成し、プロンプト空間を効率的にナビゲートする。
提案手法は4つのLLMと3つの算術データセットにまたがって検証し、オフラインで評価と最適化を行うための堅牢で効果的なツールとしての可能性を強調した。
私たちのコードとオフラインデータセットがリリースされ、CPUを使用した単一のラップトップを使用して、数時間以内にPrompt-OIRLを再現できることを強調します。
関連論文リスト
- Self-Supervised Prompt Optimization [16.06653117043314]
十分に設計されたプロンプトは、Large Language Model(LLM)推論能力の強化に不可欠である。
既存のプロンプト最適化手法は、地上の真実や人間による外部参照に大きく依存している。
本稿では,閉じたタスクとオープンなタスクの両方に効果的なプロンプトを発見する費用効率のよいフレームワークであるセルフ・スーパービジョン・プロンプト・最適化(SPO)を提案する。
論文 参考訳(メタデータ) (2025-02-07T17:45:16Z) - Eliciting Causal Abilities in Large Language Models for Reasoning Tasks [14.512834333917414]
我々は,LLMが高品質で低品質な観測データを生成することができる自己因果的指導強化法(SCIE)を導入する。
SCIEでは、命令は治療として扱われ、自然言語を処理するためにテキストの特徴が使用される。
提案手法は,プロンプトのトレーニングコストを削減し,推論性能を向上させる命令を効果的に生成する。
論文 参考訳(メタデータ) (2024-12-19T17:03:02Z) - A Systematic Examination of Preference Learning through the Lens of Instruction-Following [83.71180850955679]
新たな合成データ生成パイプラインを用いて48,000の命令追従プロンプトを生成する。
合成プロンプトでは、リジェクションサンプリング(RS)とモンテカルロ木探索(MCTS)の2つの選好データセットキュレーション手法を用いる。
実験により、MCTSが生成した選好ペアにおける共有プレフィックスは、限界はあるが一貫した改善をもたらすことが明らかになった。
高コントラストの選好ペアは一般的に低コントラストのペアよりも優れているが、両者を組み合わせることで最高のパフォーマンスが得られることが多い。
論文 参考訳(メタデータ) (2024-12-18T15:38:39Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - MAPO: Boosting Large Language Model Performance with Model-Adaptive Prompt Optimization [73.7779735046424]
異なるプロンプトを異なるLarge Language Models (LLM) に適応させることで,NLP の様々な下流タスクにまたがる機能の向上が期待できる。
次に、下流タスクにおける各LLMに対して、元のプロンプトを最適化するモデル適応プロンプト(MAPO)手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:39:59Z) - PhaseEvo: Towards Unified In-Context Prompt Optimization for Large
Language Models [9.362082187605356]
本稿では、LLMの生成能力と進化アルゴリズムのグローバル検索能力を組み合わせた効率的な自動プロンプト最適化フレームワークであるPhaseEvoについて述べる。
PhaseEvoは、優れた効率を維持しながら、最先端のベースライン手法を大きなマージンで大幅に上回っている。
論文 参考訳(メタデータ) (2024-02-17T17:47:10Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。