論文の概要: Data Augmentation for Intent Classification with Off-the-shelf Large
Language Models
- arxiv url: http://arxiv.org/abs/2204.01959v1
- Date: Tue, 5 Apr 2022 03:29:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 21:46:32.156522
- Title: Data Augmentation for Intent Classification with Off-the-shelf Large
Language Models
- Title(参考訳): オフザシェルフ大言語モデルを用いたインテント分類のためのデータ拡張
- Authors: Gaurav Sahu, Pau Rodriguez, Issam H. Laradji, Parmida Atighehchian,
David Vazquez, Dzmitry Bahdanau
- Abstract要約: 市販言語モデルを用いた意図分類のためのラベル付き学習データを生成するためのプロンプトベースアプローチを提案する。
提案手法を4つの多目的分類タスクで数ショットで評価する。
- 参考スコア(独自算出の注目度): 13.895236210726202
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentation is a widely employed technique to alleviate the problem of
data scarcity. In this work, we propose a prompting-based approach to generate
labelled training data for intent classification with off-the-shelf language
models (LMs) such as GPT-3. An advantage of this method is that no
task-specific LM-fine-tuning for data generation is required; hence the method
requires no hyper-parameter tuning and is applicable even when the available
training data is very scarce. We evaluate the proposed method in a few-shot
setting on four diverse intent classification tasks. We find that GPT-generated
data significantly boosts the performance of intent classifiers when intents in
consideration are sufficiently distinct from each other. In tasks with
semantically close intents, we observe that the generated data is less helpful.
Our analysis shows that this is because GPT often generates utterances that
belong to a closely-related intent instead of the desired one. We present
preliminary evidence that a prompting-based GPT classifier could be helpful in
filtering the generated data to enhance its quality.
- Abstract(参考訳): データ拡張は、データ不足の問題を軽減するために広く使われている技術である。
本稿では, GPT-3 などの既成言語モデル (LM) を用いた意図分類のためのラベル付き学習データを生成する手法を提案する。
この方法の利点は、データ生成のためのタスク固有のlm-fine-tuningは不要である。そのため、ハイパーパラメータチューニングは不要であり、利用可能なトレーニングデータが極めて少ない場合でも適用できる。
提案手法を4つの多目的分類タスクにおいて数ショットで評価する。
GPT生成データにより、意図が互いに十分に異なる場合、意図分類器の性能が著しく向上することがわかった。
意味的に密接な意図を持つタスクでは、生成されたデータが役に立たないことが観察される。
我々の分析は、GPTが望まれるものではなく、密接に関連する意図に属する発話をしばしば生成するためである。
本稿では,プロンプトに基づくGPT分類器が生成したデータのフィルタリングに有効であることを示す。
関連論文リスト
- Zero-Shot Stance Detection using Contextual Data Generation with LLMs [0.04096453902709291]
文脈データ生成(DyMoAdapt)を用いた動的モデル適応法を提案する。
このアプローチでは、テスト時に既存のモデルを微調整することを目的としています。
GPT-3を用いてトピック固有の新しいデータを生成する。
この方法は、新しいトピックへのモデルの適応を可能にすることで、性能を向上させることができる。
論文 参考訳(メタデータ) (2024-05-19T17:58:26Z) - Text generation for dataset augmentation in security classification
tasks [55.70844429868403]
本研究では、複数のセキュリティ関連テキスト分類タスクにおいて、このデータギャップを埋めるための自然言語テキストジェネレータの適用性を評価する。
我々は,GPT-3データ拡張戦略において,既知の正のクラスサンプルに厳しい制約がある状況において,大きなメリットを見出した。
論文 参考訳(メタデータ) (2023-10-22T22:25:14Z) - Revisit Few-shot Intent Classification with PLMs: Direct Fine-tuning vs. Continual Pre-training [20.98770732015944]
少量のラベル付きデータのみを使用して、基礎となる意図に基づいて発話を分類するために、深層学習モデルを訓練する。
この課題に対するPLMの過度な適合問題は、予想されるほど深刻ではないため、継続事前学習は必須ではない可能性がある。
限られた利用可能なデータの利用を最大化するために,コンテキスト拡張法を提案し,逐次自己蒸留を利用して性能を向上させる。
論文 参考訳(メタデータ) (2023-06-08T15:26:52Z) - Going beyond research datasets: Novel intent discovery in the industry
setting [60.90117614762879]
本稿では,大規模なeコマースプラットフォームに展開する意図発見パイプラインを改善する手法を提案する。
ドメイン内データに基づく事前学習型言語モデルの利点を示す。
また,クラスタリングタスクの微調整中に,実生活データセットの会話構造(質問と回答)を利用するための最善の方法も考案した。
論文 参考訳(メタデータ) (2023-05-09T14:21:29Z) - ZeroShotDataAug: Generating and Augmenting Training Data with ChatGPT [2.320417845168326]
本稿では,大規模な生成言語モデルであるChatGPTから得られたデータを用いて,低リソースシナリオにおけるデータ拡張を目的とした合成トレーニングデータを生成する。
タスク固有のChatGPTプロンプトによって、そのようなデータ拡張に対して最も一般的なアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-27T17:07:29Z) - AugGPT: Leveraging ChatGPT for Text Data Augmentation [59.76140039943385]
本稿では,ChatGPT(AugGPT)に基づくテキストデータ拡張手法を提案する。
AugGPTはトレーニングサンプルの各文を、概念的には似ているが意味的に異なる複数のサンプルに言い換える。
数ショットの学習テキスト分類タスクの実験結果は、提案したAugGPTアプローチの優れた性能を示している。
論文 参考訳(メタデータ) (2023-02-25T06:58:16Z) - Selective In-Context Data Augmentation for Intent Detection using
Pointwise V-Information [100.03188187735624]
PLMとPVI(pointwise V-information)に基づく新しい手法を導入し,モデル学習におけるデータポイントの有用性を計測する。
提案手法はまず,学習データの小さなシード上でPLMを微調整し,与えられた意図に対応する発話を新たに生成する。
そこで本手法は,大規模言語モデルの表現力を活用し,多様な学習データを生成する。
論文 参考訳(メタデータ) (2023-02-10T07:37:49Z) - Training Dynamic based data filtering may not work for NLP datasets [0.0]
NLPデータセットにおける誤り例を識別するために,AUM(Area Under the Margin)測定値の適用性を検討した。
我々は,NLPデータセットのAUM測定値を用いて誤ラベル付きサンプルをフィルタリングできることを発見したが,同時に,かなりの数の正確なラベル付きポイントを除去した。
論文 参考訳(メタデータ) (2021-09-19T18:50:45Z) - CADDA: Class-wise Automatic Differentiable Data Augmentation for EEG
Signals [92.60744099084157]
本研究では、勾配に基づく学習に適した微分可能データ拡張を提案する。
本研究は,臨床関連睡眠ステージ分類課題におけるアプローチの意義を示す。
論文 参考訳(メタデータ) (2021-06-25T15:28:48Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。