論文の概要: Representation based meta-learning for few-shot spoken intent
recognition
- arxiv url: http://arxiv.org/abs/2106.15238v1
- Date: Tue, 29 Jun 2021 10:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 02:00:21.142614
- Title: Representation based meta-learning for few-shot spoken intent
recognition
- Title(参考訳): 発話意図認識のための表現に基づくメタラーニング
- Authors: Ashish Mittal, Samarth Bharadwaj, Shreya Khare, Saneem Chemmengath,
Karthik Sankaranarayanan, Brian Kingsbury
- Abstract要約: 本稿ではメタラーニングパラダイムを用いたタスク非依存表現を用いた音声意図分類手法を提案する。
我々は、一般的な表現に基づくメタ学習を利用して、発話のタスクに依存しない表現を構築し、予測に線形分類器を使用する。
新規クラスの5ショット(1ショット)の分類において、提案されたフレームワークは、Google Commandsデータセットで88.6%(76.3%)、Fluent Speech Commandsデータセットで78.5%(64.2%)の平均的な分類精度を提供する。
- 参考スコア(独自算出の注目度): 24.86701995011442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spoken intent detection has become a popular approach to interface with
various smart devices with ease. However, such systems are limited to the
preset list of intents-terms or commands, which restricts the quick
customization of personal devices to new intents. This paper presents a
few-shot spoken intent classification approach with task-agnostic
representations via meta-learning paradigm. Specifically, we leverage the
popular representation-based meta-learning learning to build a task-agnostic
representation of utterances, that then use a linear classifier for prediction.
We evaluate three such approaches on our novel experimental protocol developed
on two popular spoken intent classification datasets: Google Commands and the
Fluent Speech Commands dataset. For a 5-shot (1-shot) classification of novel
classes, the proposed framework provides an average classification accuracy of
88.6% (76.3%) on the Google Commands dataset, and 78.5% (64.2%) on the Fluent
Speech Commands dataset. The performance is comparable to traditionally
supervised classification models with abundant training samples.
- Abstract(参考訳): 音声インテント検出は、さまざまなスマートデバイスとのインタフェースを容易化する一般的なアプローチになっている。
しかし、これらのシステムはインテントやコマンドの予め設定されたリストに限られており、パーソナルデバイスの迅速なカスタマイズを新しいインテントに制限している。
本稿ではメタラーニングパラダイムを用いたタスク非依存表現を用いた音声意図分類手法を提案する。
具体的には,一般的な表現型メタラーニング学習を用いて発話のタスクに依存しない表現を構築し,線形分類器を用いて予測を行う。
Google CommandsとFluent Speech Commandsデータセットという2つの一般的な音声意図分類データセット上で開発された,新しい実験プロトコルに関する3つのアプローチを評価する。
新規クラスの5ショット(1ショット)分類のために提案されたフレームワークは、Google Commandsデータセットで88.6%(76.3%)、Fluent Speech Commandsデータセットで78.5%(64.2%)の平均分類精度を提供する。
性能は、豊富なトレーニングサンプルを持つ従来の教師付き分類モデルに匹敵する。
関連論文リスト
- IntenDD: A Unified Contrastive Learning Approach for Intent Detection
and Discovery [12.905097743551774]
バックボーンを符号化する共有発話を利用した統一手法であるIntenDDを提案する。
IntenDDは完全に教師なしのコントラスト学習戦略を用いて表現学習を行う。
当社のアプローチは,3つのタスクのすべてにおいて,競争上のベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2023-10-25T16:50:24Z) - Few-Shot Open-Set Learning for On-Device Customization of KeyWord
Spotting Systems [41.24728444810133]
本稿では, 深層特徴エンコーダとプロトタイプベース分類器を組み合わせることで, オープンセットKWS分類のための数ショット学習手法について検討する。
Google Speech Commandデータセットの10クラスのユーザ定義キーワードを用いて、10ショットシナリオで最大76%の精度を報告した。
論文 参考訳(メタデータ) (2023-06-03T17:10:33Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - Distant finetuning with discourse relations for stance classification [55.131676584455306]
そこで本研究では,定位分類のモデルとして,原文から銀ラベルでデータを抽出し,微調整する手法を提案する。
また,様々な段階において微調整に用いるデータのノイズレベルが減少する3段階のトレーニングフレームワークを提案する。
NLPCC 2021共有タスクArgumentative Text Understanding for AI Debaterでは,26の競合チームの中で1位にランクインした。
論文 参考訳(メタデータ) (2022-04-27T04:24:35Z) - Leveraging Acoustic and Linguistic Embeddings from Pretrained speech and
language Models for Intent Classification [81.80311855996584]
本研究では,前訓練された音声認識システムから抽出した音響特性と,前訓練された言語モデルから学習した言語特性を用いた新しい意図分類フレームワークを提案する。
ATIS と Fluent 音声コーパスの精度は 90.86% と 99.07% である。
論文 参考訳(メタデータ) (2021-02-15T07:20:06Z) - Generalized Zero-shot Intent Detection via Commonsense Knowledge [5.398580049917152]
学習データ不足の問題を克服するために,教師なしの方法でコモンセンス知識を活用する意図検出モデル RIDE を提案する。
RIDEは、発話と意図ラベルの間の深い意味的関係をキャプチャする、堅牢で一般化可能な関係メタ機能を計算する。
広範に使用されている3つのインテント検出ベンチマークに関する広範囲な実験的分析により、関係メタ機能により、目に見えないインテントと見えないインテントの両方を検出する精度が著しく向上することが示された。
論文 参考訳(メタデータ) (2021-02-04T23:36:41Z) - Discriminative Nearest Neighbor Few-Shot Intent Detection by
Transferring Natural Language Inference [150.07326223077405]
データ不足を緩和するためには、ほとんどショットラーニングが注目を集めている。
深部自己注意を伴う識別的近傍分類を提示する。
自然言語推論モデル(NLI)を変換することで識別能力を高めることを提案する。
論文 参考訳(メタデータ) (2020-10-25T00:39:32Z) - Example-Driven Intent Prediction with Observers [15.615065041164629]
本稿では,対話システムに宛てた発話に対して,ユーザの意図を識別することを目的とした意図分類問題に焦点をあてる。
本稿では,(1)観察者および(2)サンプル駆動学習という,発話分類モデルの一般化性向上のための2つのアプローチを提案する。
論文 参考訳(メタデータ) (2020-10-17T01:03:06Z) - Meta Learning for Few-Shot One-class Classification [0.0]
メタ学習問題として,一級分類における意味のある特徴の学習を定式化する。
これらの表現を学習するには、類似したタスクからのマルチクラスデータのみが必要である。
数ショットの分類データセットを、数ショットの1クラスの分類シナリオに適応させることで、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2020-09-11T11:35:28Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - Selecting Relevant Features from a Multi-domain Representation for
Few-shot Classification [91.67977602992657]
本稿では,従来の特徴適応手法よりもシンプルかつ効果的である特徴選択に基づく新しい戦略を提案する。
このような特徴の上に構築された単純な非パラメトリック分類器は高い精度を示し、訓練中に見たことのない領域に一般化する。
論文 参考訳(メタデータ) (2020-03-20T15:44:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。