論文の概要: Learning New Tasks from a Few Examples with Soft-Label Prototypes
- arxiv url: http://arxiv.org/abs/2210.17437v1
- Date: Mon, 31 Oct 2022 16:06:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 15:32:00.438771
- Title: Learning New Tasks from a Few Examples with Soft-Label Prototypes
- Title(参考訳): ソフトラベルプロトタイプを用いた事例から新しい課題を学ぶ
- Authors: Avyav Kumar Singh, Ekaterina Shutova and Helen Yannakoudakis
- Abstract要約: sucholutsky氏とSchonlau氏は先頃、同じことを目指すマシンラーニングアプローチを発表した。
大規模、高次元、実世界のデータセットに拡張します。
- 参考スコア(独自算出の注目度): 24.174838838355527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It has been experimentally demonstrated that humans are able to learn in a
manner that allows them to make predictions on categories for which they have
not seen any examples (Malaviya et al., 2022). Sucholutsky and Schonlau (2020)
have recently presented a machine learning approach that aims to do the same.
They utilise synthetically generated data and demonstrate that it is possible
to achieve sub-linear scaling and develop models that can learn to recognise N
classes from M training samples where M is less than N - aka less-than-one shot
learning. Their method was, however, defined for univariate or simple
multivariate data (Sucholutsky et al., 2021). We extend it to work on large,
high-dimensional and real-world datasets and empirically validate it in this
new and challenging setting. We apply this method to learn previously unseen
NLP tasks from very few examples (4, 8 or 16). We first generate compact,
sophisticated less-than-one shot representations called soft-label prototypes
which are fitted on training data, capturing the distribution of different
classes across the input domain space. We then use a modified k-Nearest
Neighbours classifier to demonstrate that soft-label prototypes can classify
data competitively, even outperforming much more computationally complex
few-shot learning methods.
- Abstract(参考訳): 実験によって、人間が全く見ていないカテゴリーを予測できる方法で学習できることが実証された(Malaviya et al., 2022)。
sucholutsky氏とSchonlau氏(2020年)は先頃、同じことを目指すマシンラーニングアプローチを発表した。
彼らは合成されたデータを活用し、サブ線形スケーリングを実現し、M が N よりも少ない M トレーニングサンプルから N クラスの認識を学習できるモデルを開発することができることを示した。
しかし、その方法は単変量あるいは単純多変量データに対して定義された(Sucholutsky et al., 2021)。
大規模で高次元で現実世界のデータセットで作業できるように拡張し、この新しい挑戦的な環境で実証的に検証します。
本手法を,ごく少数の例 (4, 8, 16) から未確認のNLPタスクの学習に適用する。
まず、訓練データに適合するソフトラベルのプロトタイプと呼ばれるコンパクトで洗練された1対1のショット表現を生成し、入力領域空間の異なるクラスの分布をキャプチャする。
そして、修正されたk-nearest近傍の分類器を使って、ソフトラベルのプロトタイプが競争的にデータを分類できることを証明します。
関連論文リスト
- Words Matter: Leveraging Individual Text Embeddings for Code Generation in CLIP Test-Time Adaptation [21.20806568508201]
テスト時推論において視覚言語モデル(VLM)が遭遇する分布ドリフトを軽減するために,クラステキスト情報を活用する方法を示す。
本稿では,ラベル割り当て問題の固定セントロイドとしてジェネリッククラステキスト埋め込みを利用して,テスト時間サンプルの擬似ラベルを生成することを提案する。
多様な複雑性を示す複数の人気のあるテスト時間適応ベンチマークの実験は、CLIP-OTの優位性を実証的に示している。
論文 参考訳(メタデータ) (2024-11-26T00:15:37Z) - LC-Protonets: Multi-label Few-shot learning for world music audio tagging [65.72891334156706]
ラベル結合型プロトタイプネットワーク(LC-Protonets)を導入し,複数ラベルの複数ショット分類の問題に対処する。
LC-Protonetsは、限られたトレーニング項目に存在するラベルのパワーセットから、ラベルの組み合わせごとに1つのプロトタイプを生成する。
本手法は,様々な文化をカバーし,現代音楽と伝統音楽の両方を含む,多様な音楽データセットにまたがる自動音声タグ付けに適用する。
論文 参考訳(メタデータ) (2024-09-17T15:13:07Z) - LLMaAA: Making Large Language Models as Active Annotators [32.57011151031332]
本稿では,大規模な言語モデルをアノテータとして利用し,それをアクティブな学習ループに配置して,アノテートを効率的に行うLLMaAAを提案する。
我々は、エンティティ認識と関係抽出という、2つの古典的NLPタスクの実験と分析を行う。
LLMaAAでは、LLM生成ラベルからトレーニングされたタスク固有のモデルが、数百の注釈付きサンプルで教師より優れている。
論文 参考訳(メタデータ) (2023-10-30T14:54:15Z) - Learning under Label Proportions for Text Classification [13.29710879730948]
我々は、LLP(Learning from Proportions)の挑戦的なセットアップの下で、予備的なNLP作品の1つを提示する。
データは、バッグと呼ばれる集約形式で提供され、各クラス内のサンプルの割合のみが基礎となる真理である。
論文 参考訳(メタデータ) (2023-10-18T04:39:25Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - Active Learning Principles for In-Context Learning with Large Language
Models [65.09970281795769]
本稿では,アクティブ・ラーニング・アルゴリズムが,文脈内学習における効果的な実演選択手法としてどのように機能するかを検討する。
ALによる文脈内サンプル選択は,不確実性の低い高品質な事例を優先し,試験例と類似性を有することを示す。
論文 参考訳(メタデータ) (2023-05-23T17:16:04Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - CSS-LM: A Contrastive Framework for Semi-supervised Fine-tuning of
Pre-trained Language Models [59.49705076369856]
プレトレーニング言語モデル(PLM)の微調整フェーズを改善するための新しいフレームワークを提案する。
大規模未ラベルコーパスから,タスクに対するドメインレベルおよびクラスレベルの意味的関連性に応じて,正および負のインスタンスを検索する。
次に、検索したラベル付きおよびオリジナルラベル付きの両方のインスタンスに対して、対照的な半教師付き学習を行い、PLMが重要なタスク関連セマンティックな特徴をキャプチャするのを助ける。
論文 参考訳(メタデータ) (2021-02-07T09:27:26Z) - Making Pre-trained Language Models Better Few-shot Learners [11.90626040104822]
最近のGPT-3モデルは、自然言語プロンプトといくつかのタスクデモンストレーションを入力コンテキストとして活用することで、驚くべき数ショットパフォーマンスを実現します。
これらの知見に触発されて,より実用的なシナリオで,微調整が計算効率のよい小型言語モデルを用いて,小数点学習の研究を行った。
LM-BFF - 少数の注釈付き例で、言語モデルの微調整のためのシンプルで補完的な技術のスイート - 言語モデルのより良い少数ショット微調整を提示します。
論文 参考訳(メタデータ) (2020-12-31T17:21:26Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。