論文の概要: Z-ICL: Zero-Shot In-Context Learning with Pseudo-Demonstrations
- arxiv url: http://arxiv.org/abs/2212.09865v2
- Date: Sat, 3 Jun 2023 22:51:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 03:46:42.486196
- Title: Z-ICL: Zero-Shot In-Context Learning with Pseudo-Demonstrations
- Title(参考訳): Z-ICL:擬似表現を用いたゼロショットインテクスト学習
- Authors: Xinxi Lyu, Sewon Min, Iz Beltagy, Luke Zettlemoyer, Hannaneh
Hajishirzi
- Abstract要約: そこで,Z-ICLを提案する。Z-ICL,Z-ICLは,与えられたテスト入力に対して擬似デモを構築することでギャップを埋める新しいゼロショット方式である。
9つの分類データセットの評価は、Z-ICLが従来のゼロショット法よりも有意差で優れていたことを示している。
- 参考スコア(独自算出の注目度): 97.41375480696972
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although large language models can be prompted for both zero- and few-shot
learning, performance drops significantly when no demonstrations are available.
In this paper, we introduce Z-ICL, a new zero-shot method that closes the gap
by constructing pseudo-demonstrations for a given test input using a raw text
corpus. Concretely, pseudo-demonstrations are constructed by (1) finding the
nearest neighbors to the test input from the corpus and pairing them with
random task labels, and (2) applying a set of techniques to reduce the amount
of direct copying the model does from the resulting demonstrations. Evaluation
on nine classification datasets shows that Z-ICL outperforms previous zero-shot
methods by a significant margin, and is on par with in-context learning with
labeled training data in the few-shot setting. Overall, Z-ICL provides a
significantly higher estimate of the zero-shot performance levels of a model,
and supports future efforts to develop better pseudo-demonstrations that
further improve zero-shot results.
- Abstract(参考訳): 大規模な言語モデルはゼロショット学習と少数ショット学習の両方でトリガーできるが、デモが得られない場合のパフォーマンスは大幅に低下する。
本稿では,原文コーパスを用いて,与えられたテスト入力に対する擬似デモンストレーションを構築し,そのギャップを閉じる新しいゼロショット法であるz-iclを提案する。
具体的には、(1)コーパスから入力されたテストに最も近い隣人を見つけ、ランダムなタスクラベルとペアリングし、(2)結果のデモンストレーションからモデルを直接コピーする量を減らすための一連のテクニックを適用することで擬似装飾を構築する。
9つの分類データセットの評価から、Z-ICLは従来のゼロショット法よりも大幅に優れており、ラベル付きトレーニングデータとラベル付きトレーニングデータと同等であることがわかった。
全体として、Z-ICLは、モデルのゼロショット性能レベルをはるかに高く見積もっており、ゼロショット結果をさらに改善するより良い擬似デモを開発するための将来の取り組みを支援している。
関連論文リスト
- C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - Improving Input-label Mapping with Demonstration Replay for In-context
Learning [67.57288926736923]
In-context Learning (ICL)は、大規模な自己回帰言語モデルの出現する能力である。
Sliding Causal Attention (RdSca) と呼ばれる新しいICL法を提案する。
ICL実験において,本手法は入力ラベルマッピングを大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-10-30T14:29:41Z) - Self-ICL: Zero-Shot In-Context Learning with Self-Generated
Demonstrations [38.4166247280112]
Self-ICLは、ゼロショットICLを実行するためにLMの固有の機能をブートストラップするフレームワークである。
Self-ICLは平均精度と頭部比較の両方でゼロショットベースラインを上回っている。
論文 参考訳(メタデータ) (2023-05-24T11:22:34Z) - Active Learning Principles for In-Context Learning with Large Language
Models [65.09970281795769]
本稿では,アクティブ・ラーニング・アルゴリズムが,文脈内学習における効果的な実演選択手法としてどのように機能するかを検討する。
ALによる文脈内サンプル選択は,不確実性の低い高品質な事例を優先し,試験例と類似性を有することを示す。
論文 参考訳(メタデータ) (2023-05-23T17:16:04Z) - Robustness of Demonstration-based Learning Under Limited Data Scenario [54.912936555876826]
実証に基づく学習は、限られたデータシナリオ下で事前訓練された言語モデルの能力を刺激する大きな可能性を示している。
実演と予測の間に明確な整合性がないため、なぜこのような実演が学習プロセスに有益なのかは不明だ。
本稿では,実証に基づくシーケンスラベリングの頑健さを深く掘り下げるために,標準情報から直感的に有用な情報を徐々に取り除き,病理デモを設計する。
論文 参考訳(メタデータ) (2022-10-19T16:15:04Z) - Self-Generated In-Context Learning: Leveraging Auto-regressive Language
Models as a Demonstration Generator [22.532627423361177]
自己生成型インコンテキスト学習(SG-ICL)は、PLM自体からインコンテキスト学習のためのデモを生成する。
我々は、SG-ICLがゼロショット学習を著しく上回り、一般的に約0.6金のトレーニングサンプルの価値があることを示した。
論文 参考訳(メタデータ) (2022-06-16T10:52:13Z) - Language Models in the Loop: Incorporating Prompting into Weak
Supervision [11.10422546502386]
本稿では,ラベル付きトレーニングデータに制限がある場合に,大規模事前学習言語モデルを新しいタスクに適用するための新しい戦略を提案する。
典型的にゼロショットや少数ショットの方法でモデルを適用する代わりに、弱い監督フレームワークにおける関数のラベル付けの基盤としてモデルを扱います。
論文 参考訳(メタデータ) (2022-05-04T20:42:40Z) - Prompt Consistency for Zero-Shot Task Generalization [118.81196556175797]
本稿では,ラベルのないデータを用いてゼロショット性能を向上させる手法について検討する。
具体的には,複数のプロンプトを使ってひとつのタスクを指定できることを利用して,プロンプトの一貫性を規則化する手法を提案する。
我々のアプローチは、4つのNLPタスクにまたがる11のデータセットのうち9つにおいて、最先端のゼロショット学習者であるT0を精度で最大10.6の絶対点で上回ります。
論文 参考訳(メタデータ) (2022-04-29T19:18:37Z) - Using Fictitious Class Representations to Boost Discriminative Zero-Shot
Learners [23.854093182195246]
そこで本研究では,学習中に動的に拡張する機構を導入し,新たな虚構クラスを創出する。
これらの架空のクラスは、トレーニングセットに現れるが、新たに公開されたクラスには現れない属性相関に基づいて、トレーニング中にモデルを固定する傾向を減少させる。
論文 参考訳(メタデータ) (2021-11-26T15:41:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。