論文の概要: Do Prompts Solve NLP Tasks Using Natural Language?
- arxiv url: http://arxiv.org/abs/2203.00902v1
- Date: Wed, 2 Mar 2022 07:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 04:12:29.064060
- Title: Do Prompts Solve NLP Tasks Using Natural Language?
- Title(参考訳): Promptsは自然言語を使ってNLPタスクを解くか?
- Authors: Sen Yang, Yunchen Zhang, Leyang Cui and Yue Zhang
- Abstract要約: 本研究では,この3種類のプロンプトを,数ショットと全教師付き設定の両方で実証的に比較する。
実験の結果,スキーマプロンプトは一般に最も有効であることがわかった。
- 参考スコア(独自算出の注目度): 18.611748762251494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Thanks to the advanced improvement of large pre-trained language models,
prompt-based fine-tuning is shown to be effective on a variety of downstream
tasks. Though many prompting methods have been investigated, it remains unknown
which type of prompts are the most effective among three types of prompts
(i.e., human-designed prompts, schema prompts and null prompts). In this work,
we empirically compare the three types of prompts under both few-shot and
fully-supervised settings. Our experimental results show that schema prompts
are the most effective in general. Besides, the performance gaps tend to
diminish when the scale of training data grows large.
- Abstract(参考訳): 大規模な事前学習型言語モデルの改良により,様々な下流タスクにおいて,プロンプトベースの微調整が有効であることが示されている。
多くのプロンプト法が研究されているが、どのタイプのプロンプトが3種類のプロンプト(人間指定プロンプト、スキーマプロンプト、ヌルプロンプト)の中で最も効果的かは不明である。
本研究では,この3種類のプロンプトを,数ショットと全教師付き設定の両方で実証的に比較する。
実験の結果,スキーマプロンプトは一般に最も有効であることがわかった。
さらに、トレーニングデータの規模が大きくなると、パフォーマンスギャップが減少する傾向がある。
関連論文リスト
- Efficient Prompting Methods for Large Language Models: A Survey [50.171011917404485]
プロンプティングは、特定の自然言語処理タスクに大規模言語モデル(LLM)を適用するための主流パラダイムとなっている。
このアプローチは、LLMの振る舞いをガイドし、制御するために、モデル推論と人間の努力のさらなる計算負担をもたらす。
本稿では, 今後の研究の方向性を明らかにするため, 促進, 効率的な促進のための進歩を概説する。
論文 参考訳(メタデータ) (2024-04-01T12:19:08Z) - Effective Prompt Extraction from Language Models [70.00099540536382]
本稿では,迅速な抽出攻撃の有効性を評価するための枠組みを提案する。
3つの異なるプロンプトと11の基盤となる大規模言語モデルによる実験では、単純なテキストベースの攻撃は、実際に高い確率でプロンプトを明らかにすることができる。
本フレームワークは,抽出したプロンプトがモデル幻覚ではなく実際の秘密プロンプトであるか否かを高精度に判定する。
論文 参考訳(メタデータ) (2023-07-13T16:15:08Z) - Toward Human Readable Prompt Tuning: Kubrick's The Shining is a good
movie, and a good prompt too? [84.91689960190054]
大規模言語モデルは、自然言語のプロンプトが与えられた場合、ゼロショットで新しいタスクを実行することができる。
特にプロンプトが自然言語である場合、どの要因がプロンプトを効果的にするかは明らかにされていない。
論文 参考訳(メタデータ) (2022-12-20T18:47:13Z) - Demystifying Prompts in Language Models via Perplexity Estimation [109.59105230163041]
プロンプトのパフォーマンスは、モデルが含んでいる言語に精通している範囲と結合している。
プロンプトの難易度が低ければ低いほど、プロンプトがタスクを実行することができることを示す。
論文 参考訳(メタデータ) (2022-12-08T02:21:47Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z) - Do Prompt-Based Models Really Understand the Meaning of their Prompts? [12.857580576554865]
モデルは、意図的に無関係で、あるいは病理学的に誤解を招く多くのプロンプトで、同じように速く学習する。
既存のプロンプトベースのモデルが与えられたプロンプトの意味を真に理解していることを示す証拠はほとんど見つからない。
論文 参考訳(メタデータ) (2021-09-02T23:46:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。