論文の概要: A Result based Portable Framework for Spoken Language Understanding
- arxiv url: http://arxiv.org/abs/2103.06010v1
- Date: Wed, 10 Mar 2021 12:06:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 14:58:27.169477
- Title: A Result based Portable Framework for Spoken Language Understanding
- Title(参考訳): 音声言語理解のための結果ベースのポータブルフレームワーク
- Authors: Lizhi Cheng, Weijia Jia, Wenmian Yang
- Abstract要約: RPFSLU (Result-based Portable Framework for Spoken Language understanding) を提案する。
RPFSLUは、ほとんどの既存のシングルターンSLUモデルがマルチターン対話からコンテキスト情報を取得し、現在の予測中の対話履歴における予測結果を最大限に活用します。
公開データセットKVRETの実験結果は、ベースライン内のすべてのSLUモデルがマルチターンSLUタスクでRPFSLUによって強化されることを示した。
- 参考スコア(独自算出の注目度): 15.99246711701726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spoken language understanding (SLU), which is a core component of the
task-oriented dialogue system, has made substantial progress in the research of
single-turn dialogue. However, the performance in multi-turn dialogue is still
not satisfactory in the sense that the existing multi-turn SLU methods have low
portability and compatibility for other single-turn SLU models. Further,
existing multi-turn SLU methods do not exploit the historical predicted results
when predicting the current utterance, which wastes helpful information. To gap
those shortcomings, in this paper, we propose a novel Result-based Portable
Framework for SLU (RPFSLU). RPFSLU allows most existing single-turn SLU models
to obtain the contextual information from multi-turn dialogues and takes full
advantage of predicted results in the dialogue history during the current
prediction. Experimental results on the public dataset KVRET have shown that
all SLU models in baselines acquire enhancement by RPFSLU on multi-turn SLU
tasks.
- Abstract(参考訳): タスク指向対話システムの中核的構成要素である音声言語理解(slu)は、シングルターン対話の研究において大きな進歩を遂げている。
しかし、既存のマルチターンSLU法は移植性が低く、他のシングルターンSLUモデルと互換性があるという意味では、マルチターン対話の性能は未だに満足できない。
さらに、既存のマルチターンSLU法は、現在の発話を予測する際に過去の予測結果を利用せず、有用な情報を無駄にします。
本稿では,これらの欠点を解消するために,RPFSLU (Result-based Portable Framework for SLU) を提案する。
RPFSLUは、ほとんどの既存のシングルターンSLUモデルがマルチターン対話からコンテキスト情報を取得し、現在の予測中の対話履歴における予測結果を最大限に活用します。
公開データセットKVRETの実験結果は、ベースライン内のすべてのSLUモデルがマルチターンSLUタスクでRPFSLUによって強化されることを示した。
関連論文リスト
- CroPrompt: Cross-task Interactive Prompting for Zero-shot Spoken Language Understanding [40.75828713474074]
音声言語理解のためのクロスタスク対話型プロンプト(CroPrompt)を提案する。
CroPromptは、SLU内の関連タスク間の情報交換をインタラクティブに活用することを可能にする。
また、インテント情報注入によるエラー伝播を軽減するために、マルチタスクの自己整合機構を導入する。
論文 参考訳(メタデータ) (2024-06-15T04:54:56Z) - Towards Spoken Language Understanding via Multi-level Multi-grained Contrastive Learning [50.1035273069458]
音声言語理解(SLU)はタスク指向対話システムにおける中核的なタスクである。
本稿では,発話レベル,スロットレベル,単語レベルを含む3段階のコントラスト学習を実現するためのマルチレベルMMCLフレームワークを提案する。
本フレームワークは,2つの公開マルチインテリジェントSLUデータセットに対して,最先端の新たな結果を実現する。
論文 参考訳(メタデータ) (2024-05-31T14:34:23Z) - Towards ASR Robust Spoken Language Understanding Through In-Context
Learning With Word Confusion Networks [68.79880423713597]
本稿では,トップ仮説のみに頼るのではなく,ASRシステムの格子出力を利用する手法を提案する。
音声質問応答と意図分類を網羅した文脈内学習実験により,LLMの音声書き起こしに対する弾力性について明らかにした。
論文 参考訳(メタデータ) (2024-01-05T17:58:10Z) - Integrating Pretrained ASR and LM to Perform Sequence Generation for
Spoken Language Understanding [29.971414483624823]
本稿では,ASR と LMworks を,シーケンス生成タスクのための SLU の定式化に効果的に統合する 3 パスのエンドツーエンド(E2E) SLU システムを提案する。
提案した3パスSLUシステムは,2つのベンチマークSLUデータセット上でのカスケードモデルとE2E SLUモデルの性能向上を示す。
論文 参考訳(メタデータ) (2023-07-20T16:34:40Z) - Improving Textless Spoken Language Understanding with Discrete Units as
Intermediate Target [58.59044226658916]
Spoken Language Understanding (SLU) は、音声音声から意味情報を抽出することを目的としたタスクである。
本研究では,テキストレスSLUの性能向上のための中間ガイダンスとして離散単位を用いることを提案する。
論文 参考訳(メタデータ) (2023-05-29T14:00:24Z) - STOP: A dataset for Spoken Task Oriented Semantic Parsing [66.14615249745448]
エンドツーエンド音声言語理解(SLU)は単一モデルを用いて音声から直接意図を予測する。
Spoken Task-Oriented semantic Parsing (STOP) データセットをリリースします。
人間が録音した音声に加えて、我々はTS生成バージョンをリリースし、エンド・ツー・エンドのSLUシステムの低リソース領域適応の性能をベンチマークする。
論文 参考訳(メタデータ) (2022-06-29T00:36:34Z) - Capture Salient Historical Information: A Fast and Accurate
Non-Autoregressive Model for Multi-turn Spoken Language Understanding [18.988599232838766]
既存の作業は、シングルターンスポケン言語理解タスクのための非自己回帰モデルの設計によって推論速度を向上する。
我々はSHA-LRT(Layer-Refined Transformer)を用いた多ターンSLUのための新しいモデルを提案する。
SHAは、適切に設計された履歴アテンション機構によって、過去の発話と結果の両方から現在の対話の履歴情報をキャプチャする。
論文 参考訳(メタデータ) (2022-06-24T10:45:32Z) - Deliberation Model for On-Device Spoken Language Understanding [69.5587671262691]
我々は、エンドツーエンド(E2E)音声言語理解(SLU)に対する新しい議論に基づくアプローチを提案する。
提案手法は,自然言語から合成音声訓練に移行する際の劣化を著しく低減できることを示す。
論文 参考訳(メタデータ) (2022-04-04T23:48:01Z) - ESPnet-SLU: Advancing Spoken Language Understanding through ESPnet [95.39817519115394]
ESPnet-SLUは、エンドツーエンドの音声処理ツールキットであるESPnetのプロジェクトである。
単一のフレームワークによる音声言語理解の迅速な開発を目的として設計されている。
論文 参考訳(メタデータ) (2021-11-29T17:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。