論文の概要: Intent Classification Using Pre-Trained Embeddings For Low Resource
Languages
- arxiv url: http://arxiv.org/abs/2110.09264v1
- Date: Mon, 18 Oct 2021 13:06:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 22:51:30.484544
- Title: Intent Classification Using Pre-Trained Embeddings For Low Resource
Languages
- Title(参考訳): 低資源言語のための事前学習埋め込みを用いたインテント分類
- Authors: Hemant Yadav, Akshat Gupta, Sai Krishna Rallabandi, Alan W Black,
Rajiv Ratn Shah
- Abstract要約: 言語固有の音声認識に依存しない音声理解システムを構築することは、言語処理において重要でない問題である。
本稿では,事前学習した音響モデルを用いて,低資源シナリオにおける音声言語理解を実現するための比較研究を提案する。
私たちは、ハイ、ミディアム、低リソースシナリオをシミュレートするために、それぞれ異なるデータサイズを持つ英語、Sinhala、Tamilの3つの異なる言語で実験を行います。
- 参考スコア(独自算出の注目度): 67.40810139354028
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Building Spoken Language Understanding (SLU) systems that do not rely on
language specific Automatic Speech Recognition (ASR) is an important yet less
explored problem in language processing. In this paper, we present a
comparative study aimed at employing a pre-trained acoustic model to perform
SLU in low resource scenarios. Specifically, we use three different embeddings
extracted using Allosaurus, a pre-trained universal phone decoder: (1) Phone
(2) Panphone, and (3) Allo embeddings. These embeddings are then used in
identifying the spoken intent. We perform experiments across three different
languages: English, Sinhala, and Tamil each with different data sizes to
simulate high, medium, and low resource scenarios. Our system improves on the
state-of-the-art (SOTA) intent classification accuracy by approximately 2.11%
for Sinhala and 7.00% for Tamil and achieves competitive results on English.
Furthermore, we present a quantitative analysis of how the performance scales
with the number of training examples used per intent.
- Abstract(参考訳): 言語固有の音声認識(ASR)に依存しない音声言語理解(SLU)システムの構築は,言語処理において重要な課題である。
本稿では,低資源シナリオにおけるSLUを実現するために,事前学習した音響モデルを用いた比較研究を提案する。
具体的には,(1)電話(2)パンホン,(3)アロ埋め込みという,事前学習された普遍的電話デコーダであるallosaurusを用いて抽出した3種類の組込みを用いる。
これらの埋め込みは、話し言葉の意図を特定するのに使用される。
私たちは、ハイ、ミディアム、低リソースシナリオをシミュレートするために、それぞれ異なるデータサイズを持つ英語、Sinhala、Tamilの3つの異なる言語で実験を行います。
本システムでは,Sinhalaでは約2.11%,Tamilでは7.00%の精度でSOTA(State-of-the-art)の分類精度が向上し,英語での競争結果が得られる。
さらに,本研究では,意図ごとのトレーニング例数を用いて,パフォーマンスのスケールを定量的に分析する。
関連論文リスト
- The Interpreter Understands Your Meaning: End-to-end Spoken Language
Understanding Aided by Speech Translation [13.352795145385645]
音声翻訳(ST)は、エンドツーエンドの音声言語理解のために、音声モデルを事前訓練する良い方法である。
我々は,本モデルが単言語および多言語意図分類に基づくベースラインよりも高い性能を達成することを示す。
また、音声要約のための新しいベンチマークデータセットを作成し、低リソース/ゼロショットを英語からフランス語またはスペイン語に転送する。
論文 参考訳(メタデータ) (2023-05-16T17:53:03Z) - SLUE Phase-2: A Benchmark Suite of Diverse Spoken Language Understanding
Tasks [88.4408774253634]
音声言語理解(SLU)タスクは、音声研究コミュニティで何十年にもわたって研究されてきた。
SLUタスクベンチマークはそれほど多くはなく、既存のベンチマークの多くは、すべての研究者が自由に利用できないデータを使っている。
最近の研究は、いくつかのタスクにそのようなベンチマークを導入し始めている。
論文 参考訳(メタデータ) (2022-12-20T18:39:59Z) - Finstreder: Simple and fast Spoken Language Understanding with Finite
State Transducers using modern Speech-to-Text models [69.35569554213679]
Spoken Language Understanding (SLU) では、音声コマンドから重要な情報を抽出する。
本稿では,有限状態トランスデューサにインテントやエンティティを埋め込む簡単な方法を提案する。
論文 参考訳(メタデータ) (2022-06-29T12:49:53Z) - On Building Spoken Language Understanding Systems for Low Resourced
Languages [1.2183405753834562]
極端に低リソースな環境を探索する一連の実験を提示する。
インテント毎に1つのデータポイントをトレーニングし、データセットに1つの話者しか持たないシステムでインテント分類を行う。
このような低リソース環境における意図的分類システムを構築するために音声文字起こしを用いる場合、音声特徴を用いた場合よりもかなり良い結果が得られた。
論文 参考訳(メタデータ) (2022-05-25T14:44:51Z) - Discovering Phonetic Inventories with Crosslingual Automatic Speech
Recognition [71.49308685090324]
本稿では,未知言語における音声認識における異なる要因(モデルアーキテクチャ,音韻モデル,音声表現の種類)の影響について検討する。
独特な音、類似した音、トーン言語は、音声による在庫発見の大きな課題である。
論文 参考訳(メタデータ) (2022-01-26T22:12:55Z) - Revisiting Tri-training of Dependency Parsers [10.977756226111348]
依存関係解析のタスクにおいて,三者学習と事前学習による単語埋め込みという2つの半教師あり学習手法を比較した。
言語固有のFastTextとELMoの埋め込みと多言語BERTの埋め込みについて検討する。
事前学習した単語の埋め込みは、トリオトレーニングよりも非ラベルデータの利用が効果的であることがわかったが、この2つのアプローチはうまく組み合わせることができる。
論文 参考訳(メタデータ) (2021-09-16T17:19:05Z) - From Masked Language Modeling to Translation: Non-English Auxiliary
Tasks Improve Zero-shot Spoken Language Understanding [24.149299722716155]
非常に低リソースの方言を含む6言語ファミリーの13言語を対象に,言語間SlotとIntent Detectionの新しいベンチマークであるxSIDを紹介した。
本研究では,英語SLU学習データと原文,構文,翻訳による非英語補助課題を併用した共同学習手法を提案する。
その結果,マスキング言語モデルによる主タスクの学習はスロットに有効であり,機械翻訳は意図分類に最適であることがわかった。
論文 参考訳(メタデータ) (2021-05-15T23:51:11Z) - Multilingual Code-Switching for Zero-Shot Cross-Lingual Intent
Prediction and Slot Filling [29.17194639368877]
ランダムな翻訳による多言語コードスイッチングを用いたモノリンガルソースデータの拡張手法を提案する。
multiatis++のベンチマークデータセットの実験では、インテントタスクの精度が+4.2%、スロットタスクが+1.8%に向上した。
本研究では,英語およびハイチクレオール語でスロット充填を行う新しいヒトアノテーション付きツイートデータセットを用いた危機情報学への応用について述べる。
論文 参考訳(メタデータ) (2021-03-13T21:05:09Z) - Comparison of Interactive Knowledge Base Spelling Correction Models for
Low-Resource Languages [81.90356787324481]
低リソース言語に対する正規化の推進は、パターンの予測が難しいため、難しい作業である。
この研究は、ターゲット言語データに様々な量を持つニューラルモデルとキャラクタ言語モデルの比較を示す。
我々の利用シナリオは、ほぼゼロのトレーニング例によるインタラクティブな修正であり、より多くのデータが収集されるにつれてモデルを改善する。
論文 参考訳(メタデータ) (2020-10-20T17:31:07Z) - LRSpeech: Extremely Low-Resource Speech Synthesis and Recognition [148.43282526983637]
データコストの低い言語のためのTLSおよびASRシステムであるLSpeechを開発した。
実験言語(英語)と真の低リソース言語(リトアニア語)で実験を行い,LRSpeechの有効性を検証する。
現在、より稀な言語でTSをサポートするために、商用のクラウド音声サービスにLSpeechをデプロイしています。
論文 参考訳(メタデータ) (2020-08-09T08:16:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。