論文の概要: Don't Prompt, Search! Mining-based Zero-Shot Learning with Language
Models
- arxiv url: http://arxiv.org/abs/2210.14803v1
- Date: Wed, 26 Oct 2022 15:52:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 12:54:30.047487
- Title: Don't Prompt, Search! Mining-based Zero-Shot Learning with Language
Models
- Title(参考訳): 急ぐな、検索!
言語モデルを用いたマイニングに基づくゼロショット学習
- Authors: Mozes van de Kar, Mengzhou Xia, Danqi Chen, Mikel Artetxe
- Abstract要約: BERTのようなマスキング言語モデルはゼロショット方式でテキスト分類を行うことができる。
ゼロショット学習のための代替的なマイニング手法を提案する。
- 参考スコア(独自算出の注目度): 37.8952605358518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Masked language models like BERT can perform text classification in a
zero-shot fashion by reformulating downstream tasks as text infilling. However,
this approach is highly sensitive to the template used to prompt the model, yet
practitioners are blind when designing them in strict zero-shot settings. In
this paper, we propose an alternative mining-based approach for zero-shot
learning. Instead of prompting language models, we use regular expressions to
mine labeled examples from unlabeled corpora, which can optionally be filtered
through prompting, and used to finetune a pretrained model. Our method is more
flexible and interpretable than prompting, and outperforms it on a wide range
of tasks when using comparable templates. Our results suggest that the success
of prompting can partly be explained by the model being exposed to similar
examples during pretraining, which can be directly retrieved through regular
expressions.
- Abstract(参考訳): BERTのようなマスキング言語モデルは、下流のタスクをテキストの埋め合わせとして書き換えることで、ゼロショットでテキスト分類を行うことができる。
しかし、このアプローチはモデルを促すために使用されるテンプレートに非常に敏感だが、厳密なゼロショット設定で設計する場合には実践者は盲目である。
本稿では,ゼロショット学習のための代替マイニングベースアプローチを提案する。
言語モデルをプロンプトする代わりに、ラベルのないコーパスからラベル付き例をマイニングするために正規表現を使用します。
提案手法はプロンプトよりも柔軟で解釈可能で,同等のテンプレートを使用する場合,幅広いタスクで処理性能が向上する。
この結果から,事前学習中に類似例に曝露したモデルにより,プロンプトの成功を部分的に説明できる可能性が示唆された。
関連論文リスト
- Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - Understanding prompt engineering may not require rethinking
generalization [56.38207873589642]
言語モデルによって与えられるPAC-Bayesと組み合わさったプロンプトの離散的性質は、文献の標準によって非常に厳密な一般化境界をもたらすことを示す。
この研究は、プロンプトエンジニアリングの広範な実践を正当化する可能性がある。
論文 参考訳(メタデータ) (2023-10-06T00:52:48Z) - Controllable Speaking Styles Using a Large Language Model [13.642358232817342]
Text-to-Speech (TTS) モデルは、同じターゲットテキストの複数の、韻律的に異なる変換を生成することができる。
現在、推論中にこれらのモデルを制御するには、一般的に適切な参照発話を見つける必要がある。
ここでは、話し方の制御と、ある対話文脈に適した韻律の2つの実演を行う。
論文 参考訳(メタデータ) (2023-05-17T16:01:50Z) - Language Model Pre-Training with Sparse Latent Typing [66.75786739499604]
そこで本研究では,多種多様な潜在型を持つ文レベルのキーワードを疎に抽出することのできる,事前学習対象Sparse Latent Typingを提案する。
実験結果から,本モデルは外部知識を使わずに,自己教師型で解釈可能な潜在型カテゴリを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T00:37:08Z) - What Makes Pre-trained Language Models Better Zero-shot Learners? [12.164678440185007]
ゼロショットシナリオでの迅速な学習の現在の方法は、十分な人間の注釈付きデータを持つ開発セットに依存している。
ゼロショットテキスト分類における妥当なプロンプトテンプレートのスクリーニング方法を提案する。
実験により,本手法は実写ゼロショット設定における予測性能の向上につながることが示された。
論文 参考訳(メタデータ) (2022-09-30T03:28:19Z) - Few-shot Prompting Towards Controllable Response Generation [49.479958672988566]
まず,モデルのパラメータにアクセスすることなく,モデル生成に対するプロンプトと強化学習(RL)の組み合わせについて検討した。
マルチタスク学習を適用して、モデルが新しいタスクをより良く一般化できるようにします。
実験の結果,提案手法はパラメータにアクセスすることなく,複数のSOTA(State-of-the-art)対話モデルを制御することができることがわかった。
論文 参考訳(メタデータ) (2022-06-08T14:48:06Z) - Language Models in the Loop: Incorporating Prompting into Weak
Supervision [11.10422546502386]
本稿では,ラベル付きトレーニングデータに制限がある場合に,大規模事前学習言語モデルを新しいタスクに適用するための新しい戦略を提案する。
典型的にゼロショットや少数ショットの方法でモデルを適用する代わりに、弱い監督フレームワークにおける関数のラベル付けの基盤としてモデルを扱います。
論文 参考訳(メタデータ) (2022-05-04T20:42:40Z) - Eliciting Knowledge from Pretrained Language Models for Prototypical
Prompt Verbalizer [12.596033546002321]
本稿では,事前学習された言語モデルから知識を抽出することに集中し,プロンプト学習のためのプロトタイプなプロンプト動詞化手法を提案する。
ゼロショット設定では、知識は事前訓練された言語モデルから手動で設計され、初期プロトタイプの埋め込みを形成する。
数ショット設定では、モデルは有意義で解釈可能なプロトタイプの埋め込みを学ぶように調整される。
論文 参考訳(メタデータ) (2022-01-14T12:04:37Z) - Template-free Prompt Tuning for Few-shot NER [46.59447116255979]
テンプレートを使わずにNERタスクをLM問題として再構成するよりエレガントな手法を提案する。
具体的には,事前学習モデルの単語予測パラダイムを維持しながらテンプレート構築プロセスを捨てる。
実験により, バート・タガー法およびテンプレートベース法に対して, 数ショット設定で提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-09-28T07:19:24Z) - Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods
in Natural Language Processing [78.8500633981247]
本稿では,自然言語処理における新たなパラダイムにおける研究成果の探索と整理を行う。
入力xを取り込んで出力yをP(y|x)として予測するようにモデルを訓練する従来の教師付き学習とは異なり、プロンプトベースの学習は直接テキストの確率をモデル化する言語モデルに基づいている。
論文 参考訳(メタデータ) (2021-07-28T18:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。