論文の概要: Black-Box Tuning for Language-Model-as-a-Service
- arxiv url: http://arxiv.org/abs/2201.03514v1
- Date: Mon, 10 Jan 2022 18:17:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 14:44:47.018742
- Title: Black-Box Tuning for Language-Model-as-a-Service
- Title(参考訳): 言語モデル・アズ・ア・サービスのためのブラックボックスチューニング
- Authors: Tianxiang Sun, Yunfan Shao, Hong Qian, Xuanjing Huang, Xipeng Qiu
- Abstract要約: この研究は、デリバティブフリーアルゴリズムによってPTMを最適化するBlack-Box Tuningを提案する。
特に,PTM推論APIを反復的に呼び出すことで,入力テキストに既定の連続的なプロンプトを最適化するためにCMA-ESを起動する。
実験の結果,数個のラベル付きサンプル上でのRoBERTaを用いたブラックボックスチューニングは,手動のプロンプトやGPT-3のテキスト内学習に優れるだけでなく,勾配に基づく学習よりも優れていた。
- 参考スコア(独自算出の注目度): 85.2210372920386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extremely large pre-trained language models (PTMs) such as GPT-3 are usually
released as a service, allowing users to design task-specific prompts to query
the PTMs through some black-box APIs. In such a scenario, which we call
Language-Model-as-a-Service (LMaaS), gradients of the PTMs are usually not
available. Can we optimize the task prompts by only accessing the model
inference APIs? Based on recent observations that large PTMs have a very low
intrinsic dimensionality, this work proposes the Black-Box Tuning to optimize
PTMs through derivative-free algorithms. In particular, we invoke the CMA-ES to
optimize the continuous prompt prepended to the input text by iteratively
calling PTM inference APIs. Our experimental results demonstrate that,
black-box tuning with RoBERTa on a few labeled samples not only significantly
outperforms manual prompt and GPT-3's in-context learning, but also surpasses
the gradient-based counterparts, namely prompt tuning and full model tuning.
- Abstract(参考訳): GPT-3のような非常に大きな事前訓練言語モデル(PTM)は一般的にサービスとしてリリースされ、ユーザーはブラックボックスAPIを通じてPTMに問い合わせるタスク固有のプロンプトを設計できる。
このようなシナリオでは、私たちがLMaaS(Language-Model-as-a-Service)と呼ぶPTMの勾配は通常利用できない。
モデル推論APIのみにアクセスすることで、タスクプロンプトを最適化できますか?
大規模PTMの内在次元が極めて低いという最近の観測に基づいて、この研究は微分自由アルゴリズムを用いてPTMを最適化するBlack-Box Tuningを提案する。
特に,PTM推論APIを反復的に呼び出すことで,入力テキストに既定の連続的なプロンプトを最適化するためにCMA-ESを呼び出す。
実験の結果,いくつかのラベル付きサンプルにおけるロベルタによるブラックボックスチューニングは,マニュアルプロンプトやgpt-3のインコンテキスト学習を著しく上回っているだけでなく,プロンプトチューニングやフルモデルチューニングといった勾配ベースのものを上回ることがわかった。
関連論文リスト
- Robust Adaptation of Foundation Models with Black-Box Visual Prompting [18.192496572620424]
本研究は,大規模事前学習モデル (PTM) を効率的に適応するブラックボックス視覚プロンプト (Black-box visual prompting, BlackVIP) を提案する。
BlackVIPは、(1)座標と(2)勾配補正による同時近似(SPSA-GC)の2つの成分を持つ。
19のデータセットの実験では、BlackVIPは、最小限のメモリ要件で、さまざまなドメインやタスクへの堅牢な適応を可能にすることが示されている。
論文 参考訳(メタデータ) (2024-07-04T02:35:00Z) - CPT: Consistent Proxy Tuning for Black-box Optimization [63.06335358432746]
Proxy-tuningはブラックボックス言語モデルをチューニングするためのテスト時間出力調整を提供する。
本稿では,シンプルなブラックボックスチューニング手法であるConsistent Proxy Tuning (CPT)を紹介する。
CPTは、凍結した大きなブラックボックスモデルと別の凍結した小さなホワイトボックスモデルを利用して、トレーニングステージ最適化目標とテストタイムプロキシの一貫性を確保する。
論文 参考訳(メタデータ) (2024-07-01T10:23:14Z) - Black-Box Tuning of Vision-Language Models with Effective Gradient
Approximation [71.21346469382821]
ブラックボックスモデルに対するテキストプロンプト最適化と出力特徴適応のための協調ブラックボックスチューニング(CBBT)を導入する。
CBBTは11のダウンストリームベンチマークで広範囲に評価され、既存のブラックボックスVL適応法と比較して顕著に改善されている。
論文 参考訳(メタデータ) (2023-12-26T06:31:28Z) - Enhancing Black-Box Few-Shot Text Classification with Prompt-Based Data
Augmentation [42.05617728412819]
大規模言語モデルの勾配にアクセスすることなく、少数ショットのテキスト分類を最適化する方法を示す。
我々のアプローチはBT-Classifierと呼ばれ、最先端のブラックボックス学習者よりもはるかに優れています。
論文 参考訳(メタデータ) (2023-05-23T07:54:34Z) - Make Prompt-based Black-Box Tuning Colorful: Boosting Model Generalization from Three Orthogonal Perspectives [28.138689389803034]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクのパワーを増大させている。
勾配や隠れ表現にアクセスせずにタスク固有のプロンプトを最適化することで、この問題に対処するためにブラックボックスチューニングが提案されている。
BBT-RGBは,ブラックボックス最適化の効率化と性能向上のための,単純かつ補完的な手法のスイートである。
論文 参考訳(メタデータ) (2023-05-14T07:33:59Z) - Decoder Tuning: Efficient Language Understanding as Decoding [84.68266271483022]
本稿では,タスク固有のデコーダネットワークを出力側で最適化するデコーダチューニング(DecT)を提案する。
勾配ベースの最適化により、DecTは数秒以内にトレーニングでき、サンプル毎に1つのPクエリしか必要としない。
我々は、広範囲にわたる自然言語理解実験を行い、DecTが200ドル以上のスピードアップで最先端のアルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-12-16T11:15:39Z) - BBTv2: Pure Black-Box Optimization Can Be Comparable to Gradient Descent
for Few-Shot Learning [83.26610968655815]
Black-Box Tuningは、言語モデルの入力に先立って、連続的なプロンプトトークンを最適化するためのデリバティブフリーなアプローチである。
BBTv2は、言語モデルをグラデーションベースの最適化に匹敵する結果を得るために駆動する、純粋なブラックボックス最適化手法である。
論文 参考訳(メタデータ) (2022-05-23T11:10:19Z) - Prompt Tuning for Discriminative Pre-trained Language Models [96.04765512463415]
最近の研究は、自然言語処理(NLP)タスクに事前訓練言語モデル(PLM)を刺激する際の迅速なチューニングの有望な結果を示している。
ELECTRAのような差別的なPLMが、いかに効果的に迅速なチューニングが可能かは、まだ不明である。
DPTは,NLPタスクを識別言語モデリング問題に書き換える,識別型PLMの最初のプロンプトチューニングフレームワークである。
論文 参考訳(メタデータ) (2022-05-23T10:11:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。