論文の概要: Improving Few-Shot Performance of Language Models via Nearest Neighbor
Calibration
- arxiv url: http://arxiv.org/abs/2212.02216v1
- Date: Mon, 5 Dec 2022 12:49:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 16:49:15.311944
- Title: Improving Few-Shot Performance of Language Models via Nearest Neighbor
Calibration
- Title(参考訳): 近距離キャリブレーションによる言語モデルのマイナショット性能の向上
- Authors: Feng Nie, Meixi Chen, Zhirui Zhang, Xu Cheng
- Abstract要約: In-context Learning のための近辺校正フレームワークを提案する。
インコンテキスト学習パラダイムは、トレーニングインスタンスを推論する際に誤ったラベルを生成するという現象にインスパイアされている。
テキスト分類タスクの多種多様な実験により,本手法はテキスト内学習を大幅に改善することが示された。
- 参考スコア(独自算出の注目度): 12.334422701057674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pre-trained language models (PLMs) have exhibited remarkable few-shot
learning capabilities when provided a few examples in a natural language prompt
as demonstrations of test instances, i.e., in-context learning. However, the
performance of in-context learning is susceptible to the choice of prompt
format, training examples and the ordering of the training examples. In this
paper, we propose a novel nearest-neighbor calibration framework for in-context
learning to ease this issue. It is inspired by a phenomenon that the in-context
learning paradigm produces incorrect labels when inferring training instances,
which provides a useful supervised signal to calibrate predictions. Thus, our
method directly augments the predictions with a $k$-nearest-neighbor ($k$NN)
classifier over a datastore of cached few-shot instance representations
obtained by PLMs and their corresponding labels. Then adaptive neighbor
selection and feature regularization modules are introduced to make full use of
a few support instances to reduce the $k$NN retrieval noise. Experiments on
various few-shot text classification tasks demonstrate that our method
significantly improves in-context learning, while even achieving comparable
performance with state-of-the-art tuning-based approaches in some sentiment
analysis tasks.
- Abstract(参考訳): 事前学習された言語モデル(plm)は、自然言語プロンプトでテストインスタンス、すなわち、コンテキスト内学習のデモンストレーションとしていくつかの例を提供して、目覚ましい少数ショット学習能力を示している。
しかしながら、インコンテキスト学習のパフォーマンスは、プロンプトフォーマットの選択、トレーニング例、トレーニング例の順序付けに影響を受けやすい。
本稿では,この問題を緩和するために,テキスト内学習のための近傍校正フレームワークを提案する。
インコンテキスト学習パラダイムがトレーニングインスタンスを推論する際に誤ったラベルを生成するという現象に触発され、予測を校正する有用な教師付きシグナルを提供する。
そこで本手法は,PLMと対応するラベルによって得られたキャッシュされた少数ショットのインスタンス表現のデータストア上で,$k$-nearest-neighbor(k$NN)分類器で予測を直接拡張する。
次に,いくつかのサポートインスタンスをフル活用して$k$nn検索ノイズを低減するために,アダプティブの隣人選択と機能正規化モジュールを導入する。
提案手法は,いくつかの感情分析タスクにおいて,最先端のチューニングベースアプローチと同等の性能を達成しながら,コンテキスト内学習を著しく改善することを示す。
関連論文リスト
- In-context Prompt Learning for Test-time Vision Recognition with Frozen Vision-language Model [13.983810804606264]
In-Context Prompt Learning (InCPL) を提案する。
InCPLは、コンテキスト情報としてラベル付き例がほとんどない新しいテストサンプルを関連付けている。
テストサンプルに適した視覚的プロンプトを最適化するために、コンテキスト対応の教師なし損失を導入する。
論文 参考訳(メタデータ) (2024-03-10T08:15:51Z) - Vocabulary-Defined Semantics: Latent Space Clustering for Improving In-Context Learning [32.178931149612644]
コンテキスト内学習により、言語モデルは下流のデータに適応したり、プロンプト内のデモとして少数のサンプルでタスクを組み込むことができる。
しかし、文脈内学習のパフォーマンスは、実演の質、形式、順序によって不安定である可能性がある。
語彙定義意味論(vocabulary-defined semantics)を提案する。
論文 参考訳(メタデータ) (2024-01-29T14:29:48Z) - Unsupervised Calibration through Prior Adaptation for Text
Classification using Large Language Models [37.39843935632105]
ラベル付きサンプルを必要とせずにテキスト分類タスクを実行するために,先行クラス分布に適応する手法を提案する。
その結果,これらの手法は,プロンプト内の訓練ショット数が異なる場合,適応しないモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-07-13T12:11:36Z) - In-Context Demonstration Selection with Cross Entropy Difference [95.21947716378641]
大規模言語モデル(LLM)は、ゼロショットタスクのパフォーマンスを改善するためにコンテキスト内デモを使用することができる。
テキスト内デモを選択するためのクロスエントロピー差分法(CED)を提案する。
論文 参考訳(メタデータ) (2023-05-24T05:04:00Z) - RetICL: Sequential Retrieval of In-Context Examples with Reinforcement Learning [53.52699766206808]
In-Context Learning (RetICL) のための検索式を提案する。
RetICLは数学用語の問題解決と科学的質問応答のタスクに基づいて評価し,一貫した性能や一致,学習可能なベースラインを示す。
論文 参考訳(メタデータ) (2023-05-23T20:15:56Z) - Active Learning Principles for In-Context Learning with Large Language
Models [65.09970281795769]
本稿では,アクティブ・ラーニング・アルゴリズムが,文脈内学習における効果的な実演選択手法としてどのように機能するかを検討する。
ALによる文脈内サンプル選択は,不確実性の低い高品質な事例を優先し,試験例と類似性を有することを示す。
論文 参考訳(メタデータ) (2023-05-23T17:16:04Z) - Fairness-guided Few-shot Prompting for Large Language Models [93.05624064699965]
インコンテキスト学習は、トレーニング例、例えば順、プロンプトフォーマットのバリエーションによって、高い不安定性に悩まされる可能性がある。
ラベルや属性に対する固定的なプロンプトの予測バイアスを評価するための指標を導入する。
そこで本研究では,テキスト内学習の性能向上のための最寄りのプロンプトを特定するための,欲求探索に基づく新しい探索手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T12:28:25Z) - Compositional Exemplars for In-context Learning [21.961094715261133]
大規模な事前学習言語モデル(LM)は、印象的なインコンテキスト学習(ICL)能力を示している。
本稿では,CEIL (Compositional Exemplars for In-context Learning) を提案する。
我々は、感情分析、パラフレーズ検出、自然言語推論、コモンセンス推論、オープンドメイン質問応答、コード生成、意味解析を含む7つの異なるNLPタスクから、CEILを12の分類および生成データセットで検証する。
論文 参考訳(メタデータ) (2023-02-11T14:02:08Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z) - Reordering Examples Helps during Priming-based Few-Shot Learning [6.579039107070663]
PERO は 10 個の例から効率よく一般化できることを示す。
提案手法が感情分類,自然言語推論,事実検索のタスクに与える影響を実証する。
論文 参考訳(メタデータ) (2021-06-03T11:02:36Z) - Few-shot learning through contextual data augmentation [74.20290390065475]
機械翻訳モデルは、時間とともに性能を維持するために新しいデータに適応する必要がある。
一つの例から5つの例への適応が可能であることを示す。
本モデルでは,平均313個の並列例でトレーニングした基準システムよりも精度がよいことを示す。
論文 参考訳(メタデータ) (2021-03-31T09:05:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。