論文の概要: A Bayesian approach for prompt optimization in pre-trained language
models
- arxiv url: http://arxiv.org/abs/2312.00471v1
- Date: Fri, 1 Dec 2023 10:10:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 15:07:56.391325
- Title: A Bayesian approach for prompt optimization in pre-trained language
models
- Title(参考訳): 事前学習言語モデルにおける素早い最適化のためのベイズ的アプローチ
- Authors: Antonio Sabbatella, Andrea Ponti, Antonio Candelieri, Ilaria Giordani,
Francesco Archetti
- Abstract要約: 本稿では,大規模言語モデル (LLM) へのアクセスを伴ってテキスト入力に追加される離散トークンを直接検索するハードプロンプトチューニング (HPT) に焦点を当てる。
本稿では,pyTorch上に構築されたベイズ最適化研究のためのライブラリであるBoTorchを使用する。
- 参考スコア(独自算出の注目度): 1.980639720136382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A prompt is a sequence of symbol or tokens, selected from a vocabulary
according to some rule, which is prepended/concatenated to a textual query. A
key problem is how to select the sequence of tokens: in this paper we formulate
it as a combinatorial optimization problem. The high dimensionality of the
token space com-pounded by the length of the prompt sequence requires a very
efficient solution. In this paper we propose a Bayesian optimization method,
executed in a continuous em-bedding of the combinatorial space. In this paper
we focus on hard prompt tuning (HPT) which directly searches for discrete
tokens to be added to the text input with-out requiring access to the large
language model (LLM) and can be used also when LLM is available only as a
black-box. This is critically important if LLMs are made available in the Model
as a Service (MaaS) manner as in GPT-4. The current manu-script is focused on
the optimization of discrete prompts for classification tasks. The discrete
prompts give rise to difficult combinatorial optimization problem which easily
become intractable given the dimension of the token space in realistic
applications. The optimization method considered in this paper is Bayesian
optimization (BO) which has become the dominant approach in black-box
optimization for its sample efficiency along with its modular structure and
versatility. In this paper we use BoTorch, a library for Bayesian optimization
research built on top of pyTorch. Albeit preliminary and obtained using a
'vanilla' version of BO, the experiments on RoB-ERTa on six benchmarks, show a
good performance across a variety of tasks and enable an analysis of the
tradeoff between size of the search space, accuracy and wall clock time.
- Abstract(参考訳): プロンプトは、ある規則に従って語彙から選択された記号またはトークンのシーケンスで、テキストクエリに事前/連結される。
鍵となる問題はトークン列の選択方法である。この記事では、組合せ最適化問題として定式化する。
プロンプト列の長さで合成されたトークン空間の高次元性は、非常に効率的な解を必要とする。
本稿では,組合せ空間の連続的な埋め込みで実行されるベイズ最適化法を提案する。
本稿では,大規模言語モデル (LLM) へのアクセスを必要とせず,テキスト入力に付加される個別トークンを直接検索するハードプロンプトチューニング(HPT)に焦点を当てる。
GPT-4のように、モデル・アズ・ア・サービス(MaaS)方式でLLMが利用可能になれば、これは非常に重要です。
現在のmanu-scriptは、分類タスクの離散的なプロンプトの最適化に焦点を当てている。
離散的なプロンプトは、現実の応用におけるトークン空間の次元を考えると容易に難解になる難解な組合せ最適化問題を引き起こす。
本論文で考察する最適化手法はベイズ最適化 (BO) であり, モジュール構造と汎用性とともに, ブラックボックス最適化における主要なアプローチとなっている。
本稿では,pyTorch上に構築されたベイズ最適化研究のためのライブラリであるBoTorchを使用する。
6つのベンチマークにおけるRoB-ERTaの実験であるBOの"バニラ"バージョンを予備的に使用して得られた結果、さまざまなタスクにわたって優れたパフォーマンスを示し、検索空間のサイズ、精度、壁時計時間の間のトレードオフを分析することができる。
関連論文リスト
- Large Language Models Prompting With Episodic Memory [53.8690170372303]
本稿では,POEM(PrOmpting with Episodic Memory)を提案する。
テストフェーズでは、各テストクエリのサンプルのシーケンスを最適化し、エピソードメモリにおけるトップkで最も類似したトレーニング例から最も高い合計報酬を得るシーケンスを選択する。
その結果,POEMはテキスト分類タスクにおいてTEMPERAやRLPromptといった最近の技術よりも5.3%向上していることがわかった。
論文 参考訳(メタデータ) (2024-08-14T11:19:28Z) - Training Greedy Policy for Proposal Batch Selection in Expensive Multi-Objective Combinatorial Optimization [52.80408805368928]
本稿では,バッチ取得のための新しいグリーディ型サブセット選択アルゴリズムを提案する。
赤蛍光タンパク質に関する実験により,提案手法は1.69倍少ないクエリでベースライン性能を達成できることが判明した。
論文 参考訳(メタデータ) (2024-06-21T05:57:08Z) - A survey and benchmark of high-dimensional Bayesian optimization of discrete sequences [12.248793682283964]
個々のブラックボックス機能を最適化することは、タンパク質工学や薬物設計など、いくつかの領域において重要である。
我々は,高次元ベイズ最適化手法と標準化されたブラックボックス関数の集合を幅広くテストするための統一的なフレームワークを開発する。
これらのベンチマークの2つのコンポーネントはそれぞれ、柔軟でスケーラブルで容易に拡張可能なソフトウェアライブラリによってサポートされています。
論文 参考訳(メタデータ) (2024-06-07T08:39:40Z) - Bayesian Optimization over High-Dimensional Combinatorial Spaces via
Dictionary-based Embeddings [36.60636056219264]
我々は,科学,工学,機械学習の分野において,高次元空間上でのブラックボックス関数の最適化の問題を考える。
鍵となるアイデアは、入力空間から多くの離散構造を選択し、それらを用いて高次元構造に対する順序埋め込みを定義することである。
本稿では,二分空間の辞書を構築するための二分ウェーブレットに基づく原理的アプローチを開発し,分類空間に一般化するランダム化構成法を提案する。
論文 参考訳(メタデータ) (2023-03-03T08:31:42Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - BBTv2: Pure Black-Box Optimization Can Be Comparable to Gradient Descent
for Few-Shot Learning [83.26610968655815]
Black-Box Tuningは、言語モデルの入力に先立って、連続的なプロンプトトークンを最適化するためのデリバティブフリーなアプローチである。
BBTv2は、言語モデルをグラデーションベースの最適化に匹敵する結果を得るために駆動する、純粋なブラックボックス最適化手法である。
論文 参考訳(メタデータ) (2022-05-23T11:10:19Z) - Bayesian Optimization over Permutation Spaces [30.650753803587794]
BOPS (Permutation Spaces) に対する2つのアルゴリズムの提案と評価を行った。
BOPS-Tの性能を理論的に解析し,その後悔がサブリニアに増加することを示す。
複数の合成および実世界のベンチマーク実験により、BOPS-TとBOPS-Hは、空間に対する最先端のBOアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-12-02T08:20:50Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Mercer Features for Efficient Combinatorial Bayesian Optimization [32.856318660282255]
ベイズ最適化(Bayesian optimization、BO)は、高価な関数評価でブラックボックス最適化問題を解決するための効率的なフレームワークである。
本稿では,科学や工学の応用において自然に発生する空間(シーケンスやグラフなど)のbo問題の設定について述べる。
重要な課題は、統計モデルの複雑さと検索のトラクタビリティのバランスをとり、評価のための構造を選択することです。
論文 参考訳(メタデータ) (2020-12-14T17:58:39Z) - BOSS: Bayesian Optimization over String Spaces [15.630421177117634]
本稿では,原弦上で直接作用するベイズ最適化法(BO法)を提案する。
BOループ内で文字列カーネルと遺伝的アルゴリズムを最初に使用することを提案する。
論文 参考訳(メタデータ) (2020-10-02T13:18:27Z) - Stepwise Model Selection for Sequence Prediction via Deep Kernel
Learning [100.83444258562263]
本稿では,モデル選択の課題を解決するために,新しいベイズ最適化(BO)アルゴリズムを提案する。
結果として得られる複数のブラックボックス関数の最適化問題を協調的かつ効率的に解くために,ブラックボックス関数間の潜在的な相関を利用する。
我々は、シーケンス予測のための段階的モデル選択(SMS)の問題を初めて定式化し、この目的のために効率的な共同学習アルゴリズムを設計し、実証する。
論文 参考訳(メタデータ) (2020-01-12T09:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。