論文の概要: Selective In-Context Data Augmentation for Intent Detection using
Pointwise V-Information
- arxiv url: http://arxiv.org/abs/2302.05096v1
- Date: Fri, 10 Feb 2023 07:37:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 16:20:06.273507
- Title: Selective In-Context Data Augmentation for Intent Detection using
Pointwise V-Information
- Title(参考訳): ポイントワイズv情報を用いたインテント検出のための選択的文脈内データ拡張
- Authors: Yen-Ting Lin, Alexandros Papangelis, Seokhwan Kim, Sungjin Lee,
Devamanyu Hazarika, Mahdi Namazifar, Di Jin, Yang Liu, Dilek Hakkani-Tur
- Abstract要約: PLMとPVI(pointwise V-information)に基づく新しい手法を導入し,モデル学習におけるデータポイントの有用性を計測する。
提案手法はまず,学習データの小さなシード上でPLMを微調整し,与えられた意図に対応する発話を新たに生成する。
そこで本手法は,大規模言語モデルの表現力を活用し,多様な学習データを生成する。
- 参考スコア(独自算出の注目度): 100.03188187735624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work focuses on in-context data augmentation for intent detection.
Having found that augmentation via in-context prompting of large pre-trained
language models (PLMs) alone does not improve performance, we introduce a novel
approach based on PLMs and pointwise V-information (PVI), a metric that can
measure the usefulness of a datapoint for training a model. Our method first
fine-tunes a PLM on a small seed of training data and then synthesizes new
datapoints - utterances that correspond to given intents. It then employs
intent-aware filtering, based on PVI, to remove datapoints that are not helpful
to the downstream intent classifier. Our method is thus able to leverage the
expressive power of large language models to produce diverse training data.
Empirical results demonstrate that our method can produce synthetic training
data that achieve state-of-the-art performance on three challenging intent
detection datasets under few-shot settings (1.28% absolute improvement in
5-shot and 1.18% absolute in 10-shot, on average) and perform on par with the
state-of-the-art in full-shot settings (within 0.01% absolute, on average).
- Abstract(参考訳): 本研究はインテント検出のためのコンテキスト内データ拡張に焦点を当てている。
大規模事前学習言語モデル(plm)のコンテキスト内プロンプトによる拡張は性能を向上しないことが判明し、plmsとpvi(pointwise v-information)に基づいた新しいアプローチを導入し、モデルトレーニングにおけるデータポイントの有用性を測定する。
提案手法はまず,学習データの小さなシード上でPLMを微調整し,与えられた意図に対応する発話を新たに生成する。
次に、PVIに基づくインテント認識フィルタリングを使用して、ダウンストリームインテント分類器に役立たないデータポイントを削除する。
そこで本手法は,大規模言語モデルの表現力を活用し,多様な学習データを生成する。
実験結果から,本手法は,3つの挑戦的意図検出データセットに対して,数ショット設定(5ショットでは1.28%,10ショットでは1.18%,平均では1.18%)で最先端を達成し,フルショット設定では最先端と同等の性能(平均では0.01%)を達成できることを示す。
関連論文リスト
- How to Train Data-Efficient LLMs [56.41105687693619]
事前学習言語モデル(LLM)に対するデータ効率のアプローチについて検討する。
Ask-LLMと密度サンプリングがそれぞれのカテゴリで最適であることがわかった。
何百もの評価タスクと事前学習作業を含む19個のサンプルを比較したところ,Ask-LLMと密度がそれぞれのカテゴリで最適な方法であることが判明した。
論文 参考訳(メタデータ) (2024-02-15T02:27:57Z) - DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object Detection [72.25697820290502]
この研究は、ゼロショット分類によって潜在的に新しいクラスを特定するための単純かつ効率的な戦略を導入する。
このアプローチは、アノテーションやデータセット、再学習を必要とせずに、新しいクラスのリコールと精度を高めるセルフトレーニング戦略として言及する。
LVIS、V3Det、COCOを含む3つのデータセットに対する実証的な評価は、ベースラインのパフォーマンスを大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-10-02T17:52:24Z) - Approximating Human-Like Few-shot Learning with GPT-based Compression [55.699707962017975]
我々は、推論中にデータ圧縮を可能にする、人間のような学習能力を備えた生成事前学習モデルを提案する。
本稿では,GPT(Generative Pre-trained Transformer)を用いてコルモゴロフ複雑性を近似する手法を提案する。
論文 参考訳(メタデータ) (2023-08-14T05:22:33Z) - Revisiting Sample Size Determination in Natural Language Understanding [18.637079595450366]
特定のモデルのパフォーマンスを達成するために、どれだけのデータポイントをラベル付けする必要があるかを正確に知ることは、アノテーションの全体的な予算を削減するための有益なステップである。
我々は,少量のトレーニングサンプルに基づいて,達成可能なモデルの最大性能を予測するための,シンプルで効果的な手法を導出した。
論文 参考訳(メタデータ) (2023-07-01T16:08:52Z) - Revisit Few-shot Intent Classification with PLMs: Direct Fine-tuning vs. Continual Pre-training [20.98770732015944]
少量のラベル付きデータのみを使用して、基礎となる意図に基づいて発話を分類するために、深層学習モデルを訓練する。
この課題に対するPLMの過度な適合問題は、予想されるほど深刻ではないため、継続事前学習は必須ではない可能性がある。
限られた利用可能なデータの利用を最大化するために,コンテキスト拡張法を提案し,逐次自己蒸留を利用して性能を向上させる。
論文 参考訳(メタデータ) (2023-06-08T15:26:52Z) - Data Augmentation for Intent Classification with Off-the-shelf Large
Language Models [13.895236210726202]
市販言語モデルを用いた意図分類のためのラベル付き学習データを生成するためのプロンプトベースアプローチを提案する。
提案手法を4つの多目的分類タスクで数ショットで評価する。
論文 参考訳(メタデータ) (2022-04-05T03:29:26Z) - Dense Contrastive Learning for Self-Supervised Visual Pre-Training [102.15325936477362]
入力画像の2つのビュー間の画素レベルでの差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分)を最適化することにより自己教師学習を実現する。
ベースライン法であるMoCo-v2と比較すると,計算オーバーヘッドは1%遅かった。
論文 参考訳(メタデータ) (2020-11-18T08:42:32Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。