論文の概要: A new data augmentation method for intent classification enhancement and
its application on spoken conversation datasets
- arxiv url: http://arxiv.org/abs/2202.10137v1
- Date: Mon, 21 Feb 2022 11:36:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 09:27:53.426675
- Title: A new data augmentation method for intent classification enhancement and
its application on spoken conversation datasets
- Title(参考訳): 意図分類強化のための新しいデータ拡張法とその音声会話データセットへの応用
- Authors: Zvi Kons, Aharon Satt, Hong-Kwang Kuo, Samuel Thomas, Boaz Carmeli,
Ron Hoory, Brian Kingsbury
- Abstract要約: 本稿では,Nearest Neighbors Scores Improvement (NNSI)アルゴリズムを提案する。
NNSIは、高度に曖昧なサンプルを自動的に選択し、それらを高精度にラベルすることで、手動ラベリングの必要性を減らす。
2つの大規模実生活音声対話システムにおけるNNSIの使用を実演した。
- 参考スコア(独自算出の注目度): 23.495743195811375
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Intent classifiers are vital to the successful operation of virtual agent
systems. This is especially so in voice activated systems where the data can be
noisy with many ambiguous directions for user intents. Before operation begins,
these classifiers are generally lacking in real-world training data. Active
learning is a common approach used to help label large amounts of collected
user input. However, this approach requires many hours of manual labeling work.
We present the Nearest Neighbors Scores Improvement (NNSI) algorithm for
automatic data selection and labeling. The NNSI reduces the need for manual
labeling by automatically selecting highly-ambiguous samples and labeling them
with high accuracy. This is done by integrating the classifier's output from a
semantically similar group of text samples. The labeled samples can then be
added to the training set to improve the accuracy of the classifier. We
demonstrated the use of NNSI on two large-scale, real-life voice conversation
systems. Evaluation of our results showed that our method was able to select
and label useful samples with high accuracy. Adding these new samples to the
training data significantly improved the classifiers and reduced error rates by
up to 10%.
- Abstract(参考訳): インテント分類器は仮想エージェントシステムの成功に不可欠である。
これは、ユーザが意図する多くのあいまいな方向でデータがノイズになりうる音声アクティベートシステムにおいて特にそうである。
運用開始前は、これらの分類器は一般に実世界のトレーニングデータに欠けている。
アクティブラーニングは、大量のユーザ入力のラベル付けに使用される一般的なアプローチである。
しかし、このアプローチには多くの手動ラベリング作業が必要である。
本稿では,データの自動選択とラベル付けのためのnearnes score improvement (nnsi)アルゴリズムを提案する。
NNSIは、高度に曖昧なサンプルを自動的に選択し、それらを高精度にラベルすることで、手動ラベリングの必要性を減らす。
これは、意味的に類似したテキストサンプルのグループから分類器の出力を統合することで行われる。
ラベル付きサンプルをトレーニングセットに追加することで、分類器の精度を向上させることができる。
2つの大規模実生活音声対話システムにおけるNNSIの使用を実演した。
評価の結果,提案手法は有用サンプルを高い精度で選択・ラベル付けできることが判明した。
トレーニングデータにこれらの新しいサンプルを追加することで、分類器を大幅に改善し、エラー率を最大10%削減した。
関連論文リスト
- Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Prefer to Classify: Improving Text Classifiers via Auxiliary Preference
Learning [76.43827771613127]
本稿では、このような補助データアノテーションの新しい代替手段として、入力テキストのペア間のタスク固有の嗜好について検討する。
本稿では、与えられた分類課題と補助的選好の両方を学ぶことの協調効果を享受できる、P2Cと呼ばれる新しいマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T04:04:47Z) - ActiveLab: Active Learning with Re-Labeling by Multiple Annotators [19.84626033109009]
ActiveLabは、バッチアクティブラーニングで次にラベルを付ける方法である。
完全に新しいものをラベル付けするよりも、サンプルを再ラベルする方が有益かどうかを自動的に見積もる。
さまざまなアクティブな学習方法よりもはるかに少ないアノテーションで、より正確な分類器を確実に訓練する。
論文 参考訳(メタデータ) (2023-01-27T17:00:11Z) - Learning to Detect Noisy Labels Using Model-Based Features [16.681748918518075]
Select-Enhanced Noisy label Training (SENT)を提案する。
SENTは、データ駆動の柔軟性を保ちながら、メタ学習に依存しない。
自己学習とラベルの破損の設定の下で、強力なベースラインよりもパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2022-12-28T10:12:13Z) - Context-based Virtual Adversarial Training for Text Classification with
Noisy Labels [1.9508698179748525]
本研究では,テキスト分類器が雑音ラベルに過度に収まらないよう,コンテキストベースの仮想対位訓練(ConVAT)を提案する。
従来の手法とは異なり,提案手法は入力よりも文脈レベルで逆学習を行う。
2種類のラベルノイズを持つ4つのテキスト分類データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-29T14:19:49Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - A Unified Generative Adversarial Network Training via Self-Labeling and
Self-Attention [38.31735499785227]
本稿では,任意のレベルのラベリングを統一的に処理できる新しいGANトレーニング手法を提案する。
提案手法では,手動で定義したラベルを組み込むことができる人工ラベル方式を導入する。
我々は, CIFAR-10, STL-10, SVHNに対するアプローチを評価し, 自己ラベルと自己アテンションの両方が生成データの品質を継続的に向上することを示す。
論文 参考訳(メタデータ) (2021-06-18T04:40:26Z) - Adaptive Self-training for Few-shot Neural Sequence Labeling [55.43109437200101]
ニューラルシークエンスラベリングモデルにおけるラベル不足問題に対処する手法を開発した。
自己学習は、大量のラベルのないデータから学ぶための効果的なメカニズムとして機能する。
メタラーニングは、適応的なサンプル再重み付けにおいて、ノイズのある擬似ラベルからのエラー伝播を軽減するのに役立つ。
論文 参考訳(メタデータ) (2020-10-07T22:29:05Z) - Deep Active Learning via Open Set Recognition [0.0]
多くのアプリケーションでは、データは簡単に取得できるが、顕著な例を示すのに高価で時間がかかる。
オープンセット認識問題として能動的学習を定式化する。
現在のアクティブな学習方法とは異なり、我々のアルゴリズムはタスクラベルを必要とせずにタスクを学習することができる。
論文 参考訳(メタデータ) (2020-07-04T22:09:17Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。