論文の概要: Finstreder: Simple and fast Spoken Language Understanding with Finite
State Transducers using modern Speech-to-Text models
- arxiv url: http://arxiv.org/abs/2206.14589v1
- Date: Wed, 29 Jun 2022 12:49:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-30 23:57:05.315413
- Title: Finstreder: Simple and fast Spoken Language Understanding with Finite
State Transducers using modern Speech-to-Text models
- Title(参考訳): Finstreder:現代音声テキストモデルを用いた有限状態変換器によるシンプルで高速な音声言語理解
- Authors: Daniel Bermuth, Alexander Poeppel, Wolfgang Reif
- Abstract要約: Spoken Language Understanding (SLU) では、音声コマンドから重要な情報を抽出する。
本稿では,有限状態トランスデューサにインテントやエンティティを埋め込む簡単な方法を提案する。
- 参考スコア(独自算出の注目度): 69.35569554213679
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In Spoken Language Understanding (SLU) the task is to extract important
information from audio commands, like the intent of what a user wants the
system to do and special entities like locations or numbers. This paper
presents a simple method for embedding intents and entities into Finite State
Transducers, and, in combination with a pretrained general-purpose
Speech-to-Text model, allows building SLU-models without any additional
training. Building those models is very fast and only takes a few seconds. It
is also completely language independent. With a comparison on different
benchmarks it is shown that this method can outperform multiple other, more
resource demanding SLU approaches.
- Abstract(参考訳): 音声言語理解(slu)では、ユーザが何をしたいのか、場所や番号などの特別なエンティティの意図など、音声コマンドから重要な情報を抽出することがタスクである。
本稿では、有限状態トランスデューサにインテントやエンティティを埋め込む簡単な方法を提案するとともに、事前訓練された汎用音声テキストモデルと組み合わせることで、追加の訓練をせずにSLUモデルを構築することができる。
これらのモデルの構築は非常に高速で、数秒しかかからない。
完全に独立した言語でもある。
異なるベンチマークを比較すると、この手法は他の複数のリソース要求のSLU手法よりも優れていることが示される。
関連論文リスト
- Improving Textless Spoken Language Understanding with Discrete Units as
Intermediate Target [58.59044226658916]
Spoken Language Understanding (SLU) は、音声音声から意味情報を抽出することを目的としたタスクである。
本研究では,テキストレスSLUの性能向上のための中間ガイダンスとして離散単位を用いることを提案する。
論文 参考訳(メタデータ) (2023-05-29T14:00:24Z) - The Interpreter Understands Your Meaning: End-to-end Spoken Language
Understanding Aided by Speech Translation [13.352795145385645]
音声翻訳(ST)は、エンドツーエンドの音声言語理解のために、音声モデルを事前訓練する良い方法である。
我々は,本モデルが単言語および多言語意図分類に基づくベースラインよりも高い性能を達成することを示す。
また、音声要約のための新しいベンチマークデータセットを作成し、低リソース/ゼロショットを英語からフランス語またはスペイン語に転送する。
論文 参考訳(メタデータ) (2023-05-16T17:53:03Z) - SLUE Phase-2: A Benchmark Suite of Diverse Spoken Language Understanding
Tasks [88.4408774253634]
音声言語理解(SLU)タスクは、音声研究コミュニティで何十年にもわたって研究されてきた。
SLUタスクベンチマークはそれほど多くはなく、既存のベンチマークの多くは、すべての研究者が自由に利用できないデータを使っている。
最近の研究は、いくつかのタスクにそのようなベンチマークを導入し始めている。
論文 参考訳(メタデータ) (2022-12-20T18:39:59Z) - Bridging Speech and Textual Pre-trained Models with Unsupervised ASR [70.61449720963235]
この研究は、音声とテキストによる事前学習モデルを結ぶ、シンプルで効率的な教師なしのパラダイムを提案する。
教師なし自動音声認識(ASR)は、音声自己教師モデルから表現を改善することができることを示す。
特に、音声による質問応答では、挑戦的なNMSQAベンチマークよりも最先端の結果に到達しています。
論文 参考訳(メタデータ) (2022-11-06T04:50:37Z) - WaBERT: A Low-resource End-to-end Model for Spoken Language
Understanding and Speech-to-BERT Alignment [2.7505260301752763]
本稿では,SLUタスクのための音声モデルと言語モデルを組み合わせた,新しいエンドツーエンドモデルを提案する。
WaBERTは事前訓練された音声と言語モデルに基づいているため、スクラッチからのトレーニングは必要ない。
論文 参考訳(メタデータ) (2022-04-22T02:14:40Z) - Intent Classification Using Pre-Trained Embeddings For Low Resource
Languages [67.40810139354028]
言語固有の音声認識に依存しない音声理解システムを構築することは、言語処理において重要でない問題である。
本稿では,事前学習した音響モデルを用いて,低資源シナリオにおける音声言語理解を実現するための比較研究を提案する。
私たちは、ハイ、ミディアム、低リソースシナリオをシミュレートするために、それぞれ異なるデータサイズを持つ英語、Sinhala、Tamilの3つの異なる言語で実験を行います。
論文 参考訳(メタデータ) (2021-10-18T13:06:59Z) - SPLAT: Speech-Language Joint Pre-Training for Spoken Language
Understanding [61.02342238771685]
音声理解には、入力音響信号を解析してその言語内容を理解し、予測するモデルが必要である。
大規模無注釈音声やテキストからリッチな表現を学習するために,様々な事前学習手法が提案されている。
音声と言語モジュールを協調的に事前学習するための,新しい半教師付き学習フレームワークであるSPLATを提案する。
論文 参考訳(メタデータ) (2020-10-05T19:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。