論文の概要: Toward Human Readable Prompt Tuning: Kubrick's The Shining is a good
movie, and a good prompt too?
- arxiv url: http://arxiv.org/abs/2212.10539v1
- Date: Tue, 20 Dec 2022 18:47:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 16:06:24.454995
- Title: Toward Human Readable Prompt Tuning: Kubrick's The Shining is a good
movie, and a good prompt too?
- Title(参考訳): 人間の読みやすいプロンプトチューニングに向けて:クブリックのThe Shiningは良い映画であり、良いプロンプトでもある?
- Authors: Weijia Shi, Xiaochuang Han, Hila Gonen, Ari Holtzman, Yulia Tsvetkov,
Luke Zettlemoyer
- Abstract要約: 大規模言語モデルは、自然言語のプロンプトが与えられた場合、ゼロショットで新しいタスクを実行することができる。
特にプロンプトが自然言語である場合、どの要因がプロンプトを効果的にするかは明らかにされていない。
- 参考スコア(独自算出の注目度): 84.91689960190054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models can perform new tasks in a zero-shot fashion, given
natural language prompts that specify the desired behavior. Such prompts are
typically hand engineered, but can also be learned with gradient-based methods
from labeled data. However, it is underexplored what factors make the prompts
effective, especially when the prompts are natural language. In this paper, we
investigate common attributes shared by effective prompts. We first propose a
human readable prompt tuning method (F LUENT P ROMPT) based on Langevin
dynamics that incorporates a fluency constraint to find a diverse distribution
of effective and fluent prompts. Our analysis reveals that effective prompts
are topically related to the task domain and calibrate the prior probability of
label words. Based on these findings, we also propose a method for generating
prompts using only unlabeled data, outperforming strong baselines by an average
of 7.0% accuracy across three tasks.
- Abstract(参考訳): 大きな言語モデルは、望ましい振る舞いを特定する自然言語プロンプトがあれば、ゼロショット方式で新しいタスクを実行することができる。
このようなプロンプトは通常手動で設計されるが、ラベル付きデータから勾配に基づく手法で学習することもできる。
しかし、特にプロンプトが自然言語である場合には、プロンプトを効果的にする要因は、過小評価されている。
本稿では,実効プロンプトで共有される共通属性について検討する。
提案手法は, フルーエンシー制約を組み込んだランジュバンダイナミクスに基づく人間の可読性プロンプトチューニング手法 (fluent p rompt) を提案する。
分析の結果,有効プロンプトはタスク領域とトポロジカルに関連し,ラベル単語の事前確率を校正することがわかった。
これらの結果に基づき、3つのタスクの平均7.0%の精度で強いベースラインを上回り、ラベルのないデータのみを用いてプロンプトを生成する手法を提案する。
関連論文リスト
- Prompt Valuation Based on Shapley Values [5.072508764734943]
大きな言語モデル(LLM)は、単に自然言語のプロンプトを提供することで、追加のトレーニングなしで新しいタスクを最適化する。
本稿では、Shapley値を用いてプロンプトの寄与を正確に定量化する。
本稿では,各プロンプトの寄与を効果的に識別し,定量化するため,シャープリー値を用いたプロンプトの有効性を検証する。
論文 参考訳(メタデータ) (2023-12-24T03:37:11Z) - The language of prompting: What linguistic properties make a prompt
successful? [13.034603322224548]
LLMは、多くのNLPタスクにおいて、印象的なゼロショットまたは少数ショットのパフォーマンスを達成するよう促すことができる。
しかし、プロンプトの言語的特性がタスクのパフォーマンスとどのように関連しているかについての体系的な理解はいまだに欠けている。
モーメント,テンション,アスペクト,モダリティなどの文法的性質と,同義語の使用による語彙・意味の変化について検討する。
論文 参考訳(メタデータ) (2023-11-03T15:03:36Z) - InfoPrompt: Information-Theoretic Soft Prompt Tuning for Natural
Language Understanding [51.48361798508375]
我々は,プロンプトと他のモデルパラメータ間の相互情報の最大化として,ソフトプロンプトチューニングを定式化する情報理論フレームワークを開発する。
本稿では,インフォプロンプトがプロンプトチューニングの収束を著しく加速し,従来のプロンプトチューニング手法よりも優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-06-08T04:31:48Z) - Zero-shot Approach to Overcome Perturbation Sensitivity of Prompts [7.208567411886273]
近年の研究では、自然言語のプロンプトが、二項文レベルの感情分類タスクにおいて、事前学習された言語モデルによって学習された知識を活用できることが示されている。
本研究の目的は、ゼロショット設定で与えられたタスクに対する高品質なプロンプトを見つけることである。
本研究は,二分文レベルの感情分類タスクにおいて,最上位のプロンプトが高品質で,基本プロンプトと少数ショット学習を用いて生成したプロンプトを著しく上回っていることを実証的に示す。
論文 参考訳(メタデータ) (2023-05-25T03:36:43Z) - Demystifying Prompts in Language Models via Perplexity Estimation [109.59105230163041]
プロンプトのパフォーマンスは、モデルが含んでいる言語に精通している範囲と結合している。
プロンプトの難易度が低ければ低いほど、プロンプトがタスクを実行することができることを示す。
論文 参考訳(メタデータ) (2022-12-08T02:21:47Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z) - Do Prompts Solve NLP Tasks Using Natural Language? [18.611748762251494]
本研究では,この3種類のプロンプトを,数ショットと全教師付き設定の両方で実証的に比較する。
実験の結果,スキーマプロンプトは一般に最も有効であることがわかった。
論文 参考訳(メタデータ) (2022-03-02T07:20:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。