論文の概要: Learning to Classify Intents and Slot Labels Given a Handful of Examples
- arxiv url: http://arxiv.org/abs/2004.10793v1
- Date: Wed, 22 Apr 2020 18:54:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 18:13:38.714968
- Title: Learning to Classify Intents and Slot Labels Given a Handful of Examples
- Title(参考訳): 一握りの例を与えられた意図とスロットラベルを分類する学習
- Authors: Jason Krone, Yi Zhang, Mona Diab
- Abstract要約: インテント分類(IC)とスロットフィリング(SF)は、ほとんどのゴール指向対話システムにおいて中核的なコンポーネントである。
超低リソースシナリオにおいて、トレーニング時に見えないクラスにおいて、ICモデルとSFモデルの性能を研究・改善するために、新しい数ショット学習タスクである、数ショットのIC/SFを提案する。
モデル非依存型メタラーニング(MAML)とプロトタイプネットワークという2つの一般的な数ショット学習アルゴリズムが,このベンチマークの微調整ベースラインを上回っていることを示す。
- 参考スコア(独自算出の注目度): 22.783338548129983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intent classification (IC) and slot filling (SF) are core components in most
goal-oriented dialogue systems. Current IC/SF models perform poorly when the
number of training examples per class is small. We propose a new few-shot
learning task, few-shot IC/SF, to study and improve the performance of IC and
SF models on classes not seen at training time in ultra low resource scenarios.
We establish a few-shot IC/SF benchmark by defining few-shot splits for three
public IC/SF datasets, ATIS, TOP, and Snips. We show that two popular few-shot
learning algorithms, model agnostic meta learning (MAML) and prototypical
networks, outperform a fine-tuning baseline on this benchmark. Prototypical
networks achieves significant gains in IC performance on the ATIS and TOP
datasets, while both prototypical networks and MAML outperform the baseline
with respect to SF on all three datasets. In addition, we demonstrate that
joint training as well as the use of pre-trained language models, ELMo and BERT
in our case, are complementary to these few-shot learning methods and yield
further gains.
- Abstract(参考訳): インテント分類(IC)とスロットフィリング(SF)は、ほとんどのゴール指向対話システムにおいて中核的なコンポーネントである。
現在のIC/SFモデルは、クラスごとのトレーニング例の数が少ないとパフォーマンスが悪くなります。
超低リソースシナリオにおいて、トレーニング時に見えないクラスにおいて、ICモデルとSFモデルの性能を研究・改善するために、新しい数ショット学習タスク、IC/SFを提案する。
我々は,ATIS,TOP,Snipsの3つの公開IC/SFデータセットに対して,数ショットの分割を定義することで,数ショットのIC/SFベンチマークを確立する。
モデル非依存型メタラーニング(MAML)とプロトタイプネットワークという2つの一般的な数ショット学習アルゴリズムが,このベンチマークの微調整ベースラインを上回っていることを示す。
原型ネットワークはATISおよびTOPデータセット上でのIC性能の大幅な向上を実現し、一方、原型ネットワークとMAMLはいずれも3つのデータセットのSFに対してベースラインを上回っている。
さらに,事前学習された言語モデルである elmo と bert を併用した共同学習が,これらの数少ない学習手法を補完し,さらなる成果をもたらすことを実証した。
関連論文リスト
- High-Performance Few-Shot Segmentation with Foundation Models: An Empirical Study [64.06777376676513]
基礎モデルに基づく数ショットセグメンテーション(FSS)フレームワークを開発した。
具体的には、基礎モデルから暗黙的な知識を抽出し、粗い対応を構築するための簡単なアプローチを提案する。
2つの広く使われているデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-10T08:04:11Z) - ILLUMINER: Instruction-tuned Large Language Models as Few-shot Intent Classifier and Slot Filler [1.9015367254988451]
本研究では、インテント分類(IC)とスロットフィリング(SF)のための人気のあるベンチマークデータセット上で、命令調整モデル(インストラクション-LLM)を評価する。
Instruct-LLM の言語生成タスクとして IC と SF をフレーミングする ILLUMINER を導入する。
FLAN-T5 11Bモデルを用いた複数のベースラインとの総合的な比較から,本手法は最先端のジョイントIC+SF法やGPT3.5 (175B) を用いたテキスト内学習よりも優れていた。
論文 参考訳(メタデータ) (2024-03-26T09:41:21Z) - Constructing Sample-to-Class Graph for Few-Shot Class-Incremental
Learning [10.111587226277647]
FSCIL(Few-shot class-incremental Learning)は、いくつかのデータサンプルから新しい概念を継続的に学習するマシンラーニングモデルの構築を目的とする。
本稿では,FSCILのためのS2Cグラフ学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-31T08:38:14Z) - Boosting Low-Data Instance Segmentation by Unsupervised Pre-training
with Saliency Prompt [103.58323875748427]
この研究は、低データ体制のための新しい教師なし事前学習ソリューションを提供する。
近年のPrompting技術の成功に触発されて,QEISモデルを強化した新しい事前学習手法を導入する。
実験結果から,本手法は3つのデータセット上でのいくつかのQEISモデルを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-02-02T15:49:03Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - An Explicit-Joint and Supervised-Contrastive Learning Framework for
Few-Shot Intent Classification and Slot Filling [12.85364483952161]
Intent Classification (IC) と slot fill (SF) はタスク指向対話システムにおいて重要なビルディングブロックである。
クラスごとのトレーニングサンプルの数が非常に少ない場合、IC/SFモデルはほとんど機能しない。
そこで本稿では,数ショットの意図分類とスロットフィリングのための,明示的かつ教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-26T13:28:28Z) - Semi-Supervised Few-Shot Intent Classification and Slot Filling [3.602651625446309]
インテント分類(IC)とスロットフィリング(SF)は、現代の自然言語理解(NLU)システムにおける2つの基本的なタスクである。
本研究では,既存の教師付きメタ学習パイプラインに対して,コントラスト学習と教師なしデータ拡張がどのような効果をもたらすかを検討する。
論文 参考訳(メタデータ) (2021-09-17T20:26:23Z) - Partner-Assisted Learning for Few-Shot Image Classification [54.66864961784989]
人間の視覚能力を模倣し、徹底的な人間のアノテーションを必要とせずに効果的なモデルを学ぶために、わずかなショットラーニングが研究されている。
本稿では,新しいクラスのプロトタイプをラベル付きサンプルから推定できるように,要素表現を得るためのトレーニング戦略の設計に焦点をあてる。
本稿では,まずパートナーエンコーダのペアワイド類似性をモデル化し,ソフトアンカーとして機能する特徴を抽出し,その出力をソフトアンカーと整列させ,分類性能を最大化しようとする2段階トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T22:46:19Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Meta learning to classify intent and slot labels with noisy few shot
examples [11.835266162072486]
音声言語理解(SLU)モデルは、データハングリーで悪名高い。
SLUは目的分類(IC)とスロットラベリング(SL)の2つのコア問題から構成される。
本稿では,従来の微調整ベースラインとメタラーニング手法であるモデル非依存メタラーニング(MAML)を,ICの精度とSL F1の精度で一貫した性能で向上することを示す。
論文 参考訳(メタデータ) (2020-11-30T18:53:30Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。