論文の概要: Reliable Gradient-free and Likelihood-free Prompt Tuning
- arxiv url: http://arxiv.org/abs/2305.00593v1
- Date: Sun, 30 Apr 2023 22:33:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 14:28:33.574409
- Title: Reliable Gradient-free and Likelihood-free Prompt Tuning
- Title(参考訳): 安定なグラディエントフリー・イークリフフリー・プロンプトチューニング
- Authors: Maohao Shen, Soumya Ghosh, Prasanna Sattigeri, Subhro Das, Yuheng Bu,
Gregory Wornell
- Abstract要約: 大規模な事前訓練言語モデル(PLM)はブラックボックスAPIとして提供されることが多い。
このようなモデルを下流タスクに微調整することは、モデルの内部表現へのアクセスも、それを通して勾配の伝播もできないため、難しい。
本稿では,APIアクセスのみでPLMを適応させる手法を開発することで,これらの課題に対処する。
- 参考スコア(独自算出の注目度): 28.522673618527413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to privacy or commercial constraints, large pre-trained language models
(PLMs) are often offered as black-box APIs. Fine-tuning such models to
downstream tasks is challenging because one can neither access the model's
internal representations nor propagate gradients through it. This paper
addresses these challenges by developing techniques for adapting PLMs with only
API access. Building on recent work on soft prompt tuning, we develop methods
to tune the soft prompts without requiring gradient computation. Further, we
develop extensions that in addition to not requiring gradients also do not need
to access any internal representation of the PLM beyond the input embeddings.
Moreover, instead of learning a single prompt, our methods learn a distribution
over prompts allowing us to quantify predictive uncertainty. Ours is the first
work to consider uncertainty in prompts when only having API access to the PLM.
Finally, through extensive experiments, we carefully vet the proposed methods
and find them competitive with (and sometimes even improving on) gradient-based
approaches with full access to the PLM.
- Abstract(参考訳): プライバシーや商業上の制約のため、大規模な事前訓練言語モデル(PLM)はブラックボックスAPIとして提供されることが多い。
このようなモデルを下流タスクに微調整することは、モデルの内部表現にアクセスできないし、それを通して勾配を伝達できないため、難しい。
本稿では,APIアクセスのみでPLMを適用する手法を開発することで,これらの課題に対処する。
ソフトプロンプトチューニングに関する最近の研究に基づいて,勾配計算を必要とせずにソフトプロンプトをチューニングする手法を開発した。
さらに我々は、勾配を必要としないことに加えて、入力埋め込み以外のplmの内部表現にアクセスする必要がない拡張を開発する。
さらに,1つのプロンプトを学習する代わりに,予測の不確実性を定量化するプロンプト上の分布を学習する。
PLMにAPIアクセスしか持たない場合、プロンプトの不確実性を考慮するのはこれが初めてです。
最後に、広範な実験を通じて提案手法を慎重に検証し、PLMに完全アクセス可能な勾配に基づくアプローチと競合する(時には改善する)ことを見出した。
関連論文リスト
- Unlocking Memorization in Large Language Models with Dynamic Soft Prompting [66.54460367290146]
大規模言語モデル(LLM)は、要約、質問応答、翻訳などの自然言語処理(NLP)タスクに革命をもたらした。
LLMはトレーニングデータを記憶する傾向があるため、重大なセキュリティリスクを生じ、プライバシー侵害や著作権侵害につながる可能性がある。
動的,プレフィックスに依存したソフトプロンプトを用いたLLM記憶推定手法を提案する。
論文 参考訳(メタデータ) (2024-09-20T18:56:32Z) - Accelerating Large Language Model Inference with Self-Supervised Early Exits [0.0]
本稿では,大規模・事前学習型言語モデル(LLM)における推論を高速化する新しい手法を提案する。
本稿では,既存の変圧器層上に早期出口「頭部」を統合し,信頼度基準に基づく条件付き項化を容易にすることを提案する。
論文 参考訳(メタデータ) (2024-07-30T07:58:28Z) - Hard Prompts Made Interpretable: Sparse Entropy Regularization for Prompt Tuning with RL [29.01858866450715]
ソフトQ-ラーニングを利用した最適なプロンプトを見つけることを目的としたRLPromptを提案する。
結果は有望な結果を示す一方で,プロンプトが不自然に現れることがしばしばあり,その解釈可能性を妨げることが確認されている。
この制限をスパルス・ツァリスエントロピー正規化(英語版)を用いて解決する。
論文 参考訳(メタデータ) (2024-07-20T03:10:19Z) - Gradient-Mask Tuning Elevates the Upper Limits of LLM Performance [51.36243421001282]
Gradient-Mask Tuning (GMT) は、勾配情報に基づいてトレーニング中のパラメータを選択的に更新する手法である。
実験により, GMTは従来の微調整法に勝るだけでなく, LLM性能の上限も高めることを示した。
論文 参考訳(メタデータ) (2024-06-21T17:42:52Z) - Large Language Model Unlearning via Embedding-Corrupted Prompts [10.889859281637406]
大規模言語モデルのための軽量なアンラーニングフレームワークである textbfEmbedding-COrrupted (ECO) Prompts を提案する。
推論中に未学習の状態を識別し、忘れるプロンプトを保護するためにプロンプト分類器を用いて強制する。
その結果, 学習対象を満足させるだけでなく, 忘れることを意図したデータに基づいて訓練されたことのないモデルから得られる出力を, より正確に近似できることがわかった。
論文 参考訳(メタデータ) (2024-06-12T06:56:20Z) - API Is Enough: Conformal Prediction for Large Language Models Without Logit-Access [5.922444371605447]
本研究では,ロジットアクセスを伴わない大規模言語モデル (LLM) における不確実性を定量化する,広範囲にわたる課題に対処することを目的とする。
LLM の既存の Conformal Prediction (CP) メソッドは一般的に、APIのみの LLM では利用できないロジットへのアクセスを前提としている。
本稿では,ロジットアクセスのないAPIのみのLCMに適した新しいCP手法を提案する。(2)予測セットのサイズを最小化し,(3)ユーザ定義のカバレッジの統計的保証を保証する。
論文 参考訳(メタデータ) (2024-03-02T14:14:45Z) - Prompt Highlighter: Interactive Control for Multi-Modal LLMs [50.830448437285355]
本研究では,マルチモーダル LLM (LLMs&VLMs) 推論における重要な側面として,明示的な制御可能なテキスト生成を目標とする。
本稿では,新しい推論手法であるPrompt Highlighterを導入し,ユーザが特定のプロンプトスパンをハイライトし,生成中のフォーカスをインタラクティブに制御できるようにする。
推論中、注意重みを通して強調されたトークンでモデルを導くことで、より望ましい出力が得られます。
論文 参考訳(メタデータ) (2023-12-07T13:53:29Z) - When Gradient Descent Meets Derivative-Free Optimization: A Match Made
in Black-Box Scenario [13.067874201647966]
大規模な事前訓練言語モデル(PLM)を実行するコストは、禁止される可能性がある。
PLMは、商業的考慮と、GPT-3のような誤使用の潜在的なリスクのために、オープンソース化されない可能性がある。
本稿では,タスク固有の連続プロンプトを最適化するために,勾配降下と微分自由最適化を統合したGDFOを提案する。
論文 参考訳(メタデータ) (2023-05-17T07:48:28Z) - Gradient-Regulated Meta-Prompt Learning for Generalizable
Vision-Language Models [137.74524357614285]
グラディエント・レグルアテッドメタプロンプト学習フレームワークについて紹介する。
パラメーターとデータ -- 効率的な方法で下流タスクにモデルを適応させるのに役立つ。
GRAMはモデルに依存しない方法で様々なプロンプトチューニング手法に容易に組み込むことができる。
論文 参考訳(メタデータ) (2023-03-12T05:03:37Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Prompt-aligned Gradient for Prompt Tuning [63.346864107288766]
本稿では,視覚言語モデル(VLM)から学んだ一般的な知識を,即時チューニングが忘れないようにするために,ProGradと呼ばれるPrompt対応のグラディエントを提案する。
ProGradは、勾配が「一般的な方向」に一致しているプロンプトのみを更新し、事前に定義されたプロンプト予測のKL損失の勾配として表される。
実験では、最先端のプロンプトチューニング手法に対して、ProGradのより強力な数ショットの一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-30T06:05:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。