論文の概要: How Many Data Points is a Prompt Worth?
- arxiv url: http://arxiv.org/abs/2103.08493v1
- Date: Tue, 6 Apr 2021 14:25:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-29 21:11:29.754672
- Title: How Many Data Points is a Prompt Worth?
- Title(参考訳): プロンプトの価値あるデータポイントはいくつあるか?
- Authors: Teven Le Scao and Alexander M. Rush
- Abstract要約: プロンプトの支持者は、タスク固有のガイダンスを注入する方法を提供すると主張している。
多くのタスクとデータサイズで、インセンティブとヘッドベースの微調整を等しく比較した。
その結果、プロンプトは分類タスク全体で平均100のデータポイントの価値があります。
- 参考スコア(独自算出の注目度): 106.76346863035786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When fine-tuning pretrained models for classification, researchers either use
a generic model head or a task-specific prompt for prediction. Proponents of
prompting have argued that prompts provide a method for injecting task-specific
guidance, which is beneficial in low-data regimes. We aim to quantify this
benefit through rigorous testing of prompts in a fair setting: comparing
prompted and head-based fine-tuning in equal conditions across many tasks and
data sizes. By controlling for many sources of advantage, we find that
prompting does indeed provide a benefit, and that this benefit can be
quantified per task. Results show that prompting is often worth 100s of data
points on average across classification tasks.
- Abstract(参考訳): 分類のための訓練済みモデルを微調整する場合、研究者はジェネリックモデルヘッドまたはタスク固有のプロンプトを使用して予測を行う。
プロンプトの支持者は、プロンプトがタスク固有のガイダンスを注入する方法を提供すると主張している。
我々は、多くのタスクやデータサイズで同じ条件下でのインプットとヘッドベース微調整を比較して、厳密なプロンプトのテストを通じて、このメリットを定量化することを目指している。
多くの利点源を制御することによって、プロンプトが実際に利益をもたらし、タスク毎にこの利点を定量化できることが分かる。
結果は、プロンプトは、分類タスクの平均で100ポイントの価値があることを示している。
関連論文リスト
- Task Adaptive Feature Distribution Based Network for Few-shot Fine-grained Target Classification [16.575362884459963]
タスク適応型特徴分散ネットワークであるTAFD-Netを提案する。
タスクレベルのニュアンスをキャプチャするための組み込みのためのタスク適応コンポーネント、クエリサンプルとサポートカテゴリ間の特徴分布の類似性を計算するための非対称メトリック、パフォーマンスを高めるための対照的な測定戦略を備えている。
論文 参考訳(メタデータ) (2024-10-13T10:56:09Z) - Bayesian Multi-Task Transfer Learning for Soft Prompt Tuning [44.43258626098661]
我々は、ソースタスクからトレーニングソースプロンプトを介して知識を抽出する場合、ソースタスク間の相関を考慮し、ターゲットタスクへのより良い転送を行う必要があると論じる。
本稿では,ソースタスク間のプロンプトの後方分布を扱うベイズ的手法を提案する。
ベイジアンマルチタスク変換学習手法は,多くの環境において最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-13T16:57:02Z) - One-Shot Learning as Instruction Data Prospector for Large Language Models [108.81681547472138]
textscNuggetsはワンショット学習を使用して、広範なデータセットから高品質な命令データを選択する。
我々は,textscNuggets がキュレートした例の上位1%による命令チューニングが,データセット全体を用いた従来の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-12-16T03:33:12Z) - IDEAL: Influence-Driven Selective Annotations Empower In-Context
Learners in Large Language Models [66.32043210237768]
本稿では,影響駆動型選択的アノテーション手法を提案する。
アノテーションのコストを最小限に抑えつつ、コンテキスト内サンプルの品質を向上させることを目的としている。
様々なベンチマークで提案手法の優位性を確認する実験を行った。
論文 参考訳(メタデータ) (2023-10-16T22:53:54Z) - Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - Actively Discovering New Slots for Task-oriented Conversation [19.815466126158785]
本稿では,ループ内学習を実現するため,情報抽出方式で汎用的なスロットタスクを提案する。
我々は既存の言語ツールを活用し、対応するラベルが弱い監視信号として利用される値候補を抽出する。
いくつかの公開データセットに対して広範な実験を行い、競合するベースラインを多数比較して手法を実証する。
論文 参考訳(メタデータ) (2023-05-06T13:33:33Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Prompt Consistency for Zero-Shot Task Generalization [118.81196556175797]
本稿では,ラベルのないデータを用いてゼロショット性能を向上させる手法について検討する。
具体的には,複数のプロンプトを使ってひとつのタスクを指定できることを利用して,プロンプトの一貫性を規則化する手法を提案する。
我々のアプローチは、4つのNLPタスクにまたがる11のデータセットのうち9つにおいて、最先端のゼロショット学習者であるT0を精度で最大10.6の絶対点で上回ります。
論文 参考訳(メタデータ) (2022-04-29T19:18:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。