論文の概要: SLURP: A Spoken Language Understanding Resource Package
- arxiv url: http://arxiv.org/abs/2011.13205v1
- Date: Thu, 26 Nov 2020 09:58:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 08:10:30.314567
- Title: SLURP: A Spoken Language Understanding Resource Package
- Title(参考訳): slurp: 音声言語理解リソースパッケージ
- Authors: Emanuele Bastianelli, Andrea Vanzo, Pawel Swietojanski, Verena Rieser
- Abstract要約: Spoken Language Understandingは、音声データから直接意味を推測し、エンドユーザアプリケーションにおけるエラーの伝播と誤解を減らすことを約束する。
本稿では,以下を含む新しいSLUパッケージであるSLURPをリリースする。
英語の新しいデータセットは18のドメインにまたがっており、既存のデータセットよりもかなり大きく、言語的にも多様である。
最先端のNLUおよびASRシステムに基づく競合ベースライン。
改善の潜在的な領域を特定するための詳細なエラー解析を可能にする,エンティティラベリングのための新しい透過的メトリック。
- 参考スコア(独自算出の注目度): 14.152975136933753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spoken Language Understanding infers semantic meaning directly from audio
data, and thus promises to reduce error propagation and misunderstandings in
end-user applications. However, publicly available SLU resources are limited.
In this paper, we release SLURP, a new SLU package containing the following:
(1) A new challenging dataset in English spanning 18 domains, which is
substantially bigger and linguistically more diverse than existing datasets;
(2) Competitive baselines based on state-of-the-art NLU and ASR systems; (3) A
new transparent metric for entity labelling which enables a detailed error
analysis for identifying potential areas of improvement. SLURP is available at
https: //github.com/pswietojanski/slurp.
- Abstract(参考訳): Spoken Language Understandingは、音声データから直接意味を推測し、エンドユーザアプリケーションにおけるエラーの伝播と誤解を減らすことを約束する。
しかし、公開されているSLUリソースは限られている。
本稿では,(1)既存のデータセットよりも大幅に大きく,言語的に多様である18のドメインにまたがる英語の新しい挑戦的データセットであるSLURP,(2)最先端のNLUおよびASRシステムに基づく競合的ベースライン,(3)改善の潜在的な領域を特定するための詳細なエラー分析を可能にするエンティティラベリングのための新しい透過的メトリクスであるSLURPをリリースする。
SLURPはhttps: //github.com/pswietojanski/slurpで利用可能である。
関連論文リスト
- Large Language Models for Expansion of Spoken Language Understanding Systems to New Languages [0.20971479389679337]
Spoken Language Understanding(SLU)モデルは、Alexa、Bixby、Google Assistantなどの音声アシスタント(VA)のコアコンポーネントである。
本稿では,Large Language Models (LLM) を利用して,SLUシステムを新しい言語に拡張するパイプラインを提案する。
当社のアプローチは,mBERTモデルを用いたクラウドシナリオにおいて,主要なマルチ言語SLUデータセットであるMultiATIS++ベンチマークを改善した。
論文 参考訳(メタデータ) (2024-04-03T09:13:26Z) - Towards ASR Robust Spoken Language Understanding Through In-Context
Learning With Word Confusion Networks [68.79880423713597]
本稿では,トップ仮説のみに頼るのではなく,ASRシステムの格子出力を利用する手法を提案する。
音声質問応答と意図分類を網羅した文脈内学習実験により,LLMの音声書き起こしに対する弾力性について明らかにした。
論文 参考訳(メタデータ) (2024-01-05T17:58:10Z) - OpenSLU: A Unified, Modularized, and Extensible Toolkit for Spoken
Language Understanding [57.48730496422474]
Spoken Language Understanding (SLU) はタスク指向対話システムの中核となるコンポーネントの一つである。
OpenSLUは、言語理解のための統一的でモジュール化されたツールキットを提供するオープンソースツールキットである。
論文 参考訳(メタデータ) (2023-05-17T14:12:29Z) - The Massively Multilingual Natural Language Understanding 2022
(MMNLU-22) Workshop and Competition [0.0]
利用可能なデータがないため、自然言語理解システムは言語のサブセットに限定されることが一般的である。
我々は、NLUの限界に対処し、NLU技術を新しい高さまで推進する3段階のアプローチをローンチする。
我々は、Slot-filling、Intent Classification、Virtual Assistant EvaluationのためのMultilingual Amazon SLU Resource Pack(SLURP)と呼ばれる52の言語データセットをリリースする。
我々は、競争環境を提供し、モデルの他言語への転送可能性を高めるために、大規模多言語NLU 2022チャレンジを組織する。
論文 参考訳(メタデータ) (2022-12-13T03:00:36Z) - Finstreder: Simple and fast Spoken Language Understanding with Finite
State Transducers using modern Speech-to-Text models [69.35569554213679]
Spoken Language Understanding (SLU) では、音声コマンドから重要な情報を抽出する。
本稿では,有限状態トランスデューサにインテントやエンティティを埋め込む簡単な方法を提案する。
論文 参考訳(メタデータ) (2022-06-29T12:49:53Z) - STOP: A dataset for Spoken Task Oriented Semantic Parsing [66.14615249745448]
エンドツーエンド音声言語理解(SLU)は単一モデルを用いて音声から直接意図を予測する。
Spoken Task-Oriented semantic Parsing (STOP) データセットをリリースします。
人間が録音した音声に加えて、我々はTS生成バージョンをリリースし、エンド・ツー・エンドのSLUシステムの低リソース領域適応の性能をベンチマークする。
論文 参考訳(メタデータ) (2022-06-29T00:36:34Z) - NLU++: A Multi-Label, Slot-Rich, Generalisable Dataset for Natural
Language Understanding in Task-Oriented Dialogue [53.54788957697192]
NLU++はタスク指向対話(ToD)システムにおける自然言語理解(NLU)のための新しいデータセットである。
NLU++は2つのドメイン(BANKINGとHOTELS)に分割されており、現在一般的に使用されているNLUデータセットよりもいくつかの重要な改善が行われている。
論文 参考訳(メタデータ) (2022-04-27T16:00:23Z) - Text is no more Enough! A Benchmark for Profile-based Spoken Language
Understanding [26.549776399115203]
プロファイルベースの音声言語理解(ProSLU)は、プレーンテキストだけでなく、適切な意図やスロットを予測するために、サポートされたプロファイル情報にも依存するモデルを必要とする。
我々は、5K以上の発話とそれに対応するプロファイル情報を備えた大規模人手による中国語データセットを導入する。
実験結果から,既存のテキストベースSLUモデルは,発話が意味的に曖昧である場合に動作しないことがわかった。
論文 参考訳(メタデータ) (2021-12-22T15:22:17Z) - Intent Classification Using Pre-Trained Embeddings For Low Resource
Languages [67.40810139354028]
言語固有の音声認識に依存しない音声理解システムを構築することは、言語処理において重要でない問題である。
本稿では,事前学習した音響モデルを用いて,低資源シナリオにおける音声言語理解を実現するための比較研究を提案する。
私たちは、ハイ、ミディアム、低リソースシナリオをシミュレートするために、それぞれ異なるデータサイズを持つ英語、Sinhala、Tamilの3つの異なる言語で実験を行います。
論文 参考訳(メタデータ) (2021-10-18T13:06:59Z) - Augmenting Slot Values and Contexts for Spoken Language Understanding
with Pretrained Models [45.477765875738115]
音声言語理解(SLU)は対話システムを構築するための重要なステップである。
ラベル付きデータを取得するのにコストがかかるため、SLUはデータ不足の問題に悩まされる。
本稿では,価値ベースと文脈ベースの拡張という,微調整プロセスのための2つの戦略を提案する。
論文 参考訳(メタデータ) (2021-08-19T02:52:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。