論文の概要: Active Few-Shot Learning with FASL
- arxiv url: http://arxiv.org/abs/2204.09347v1
- Date: Wed, 20 Apr 2022 09:32:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 14:15:41.126149
- Title: Active Few-Shot Learning with FASL
- Title(参考訳): FASLを用いたアクティブ・ファウショット学習
- Authors: Thomas M\"uller and Guillermo P\'erez-Torr\'o and Angelo Basile and
Marc Franco-Salvador
- Abstract要約: この問題に対処することを目的とした2つの研究の1つが、ショット学習とアクティブラーニングだ。
これは反復的かつ高速なプロセスを使用してテキスト分類モデルのトレーニングを可能にするプラットフォームです。
- 参考スコア(独自算出の注目度): 5.601217969637838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in natural language processing (NLP) have led to strong text
classification models for many tasks. However, still often thousands of
examples are needed to train models with good quality. This makes it
challenging to quickly develop and deploy new models for real world problems
and business needs. Few-shot learning and active learning are two lines of
research, aimed at tackling this problem. In this work, we combine both lines
into FASL, a platform that allows training text classification models using an
iterative and fast process. We investigate which active learning methods work
best in our few-shot setup. Additionally, we develop a model to predict when to
stop annotating. This is relevant as in a few-shot setup we do not have access
to a large validation set.
- Abstract(参考訳): 自然言語処理(NLP)の最近の進歩は、多くのタスクに対して強力なテキスト分類モデルを生み出している。
しかし、高品質なモデルのトレーニングには何千もの例が必要となることが多い。
これにより、現実世界の問題やビジネスニーズの新しいモデルを素早く開発し、デプロイすることが困難になります。
数少ない学習とアクティブラーニングは、この問題に取り組むための2つの研究ラインである。
本研究では,両行をfaslに結合し,反復的かつ高速なプロセスを用いたテキスト分類モデルのトレーニングを可能にする。
数ショットのセットアップでどのアクティブな学習方法が最も効果的かを検討する。
さらに,アノテーションの停止時期を予測するモデルも開発した。
少数のセットアップでは大きなバリデーションセットにアクセスできないため、これは適切です。
関連論文リスト
- Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - EXnet: Efficient In-context Learning for Data-less Text classification [0.0]
本報告では,実例数に制限を加えることなく,文脈内学習を実現するためのモデルであるEXnetを提案する。
テキスト内学習はタスクの精度を高めるための効果的な手法であり,実例を提供することでタスク間の一般化が促進される,と我々は主張する。
大規模な実験により、我々の最小のモデル(15Mパラメータ)でさえ、いくつかの目に見えない分類タスクや領域に一般化できることが示される。
論文 参考訳(メタデータ) (2023-05-24T01:40:57Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - Multi-Modal Few-Shot Temporal Action Detection [157.96194484236483]
Few-shot (FS) と Zero-shot (ZS) の学習は、時間的行動検出を新しいクラスに拡張するための2つの異なるアプローチである。
我々は、FS-TADとZS-TADの結婚として考えられるMMFS (Multi-modality few-shot) TAD問題を導入する。
論文 参考訳(メタデータ) (2022-11-27T18:13:05Z) - Language Model Pre-Training with Sparse Latent Typing [66.75786739499604]
そこで本研究では,多種多様な潜在型を持つ文レベルのキーワードを疎に抽出することのできる,事前学習対象Sparse Latent Typingを提案する。
実験結果から,本モデルは外部知識を使わずに,自己教師型で解釈可能な潜在型カテゴリを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T00:37:08Z) - Zero-Shot Learners for Natural Language Understanding via a Unified
Multiple Choice Perspective [26.41585967095811]
ゼロショット学習は、与えられたタスクでモデルをトレーニングすることを目的としており、追加のトレーニングなしで新しい学習タスクに対処できる。
提案手法は、ゼロショット学習を複数選択タスクに変換し、FLANなどの大規模生成モデルで一般的に使用される問題を回避する。
提案手法は,いくつかのベンチマークにおいて最先端の性能を示し,自然言語推論やテキスト分類といったタスクに対して良好な結果をもたらす。
論文 参考訳(メタデータ) (2022-10-16T17:24:06Z) - Few-shot Prompting Towards Controllable Response Generation [49.479958672988566]
まず,モデルのパラメータにアクセスすることなく,モデル生成に対するプロンプトと強化学習(RL)の組み合わせについて検討した。
マルチタスク学習を適用して、モデルが新しいタスクをより良く一般化できるようにします。
実験の結果,提案手法はパラメータにアクセスすることなく,複数のSOTA(State-of-the-art)対話モデルを制御することができることがわかった。
論文 参考訳(メタデータ) (2022-06-08T14:48:06Z) - Co-training Improves Prompt-based Learning for Large Language Models [17.37761261683756]
本研究では、ラベルなしデータを用いて、協調学習がプロンプトベース学習の性能を向上させることを実証する。
協調学習により、元のプロンプトモデルを改善することができ、同時に、より小さく、ダウンストリームなタスク固有モデルを学ぶことができる。
論文 参考訳(メタデータ) (2022-02-02T00:48:26Z) - Language Models as Few-Shot Learner for Task-Oriented Dialogue Systems [74.8759568242933]
タスク指向対話システムは、自然言語理解(NLU)、対話状態追跡(DST)、対話ポリシー(DP)、自然言語生成(NLG)の4つの連結モジュールを使用する。
研究課題は、データ収集に関連する高コストから最小限のサンプルで各モジュールを学習することである。
我々は,NLU,DP,NLGタスクにおいて,言語モデルの素小ショット能力を評価する。
論文 参考訳(メタデータ) (2020-08-14T08:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。