論文の概要: Augmenting Slot Values and Contexts for Spoken Language Understanding
with Pretrained Models
- arxiv url: http://arxiv.org/abs/2108.08451v1
- Date: Thu, 19 Aug 2021 02:52:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-20 14:35:32.649642
- Title: Augmenting Slot Values and Contexts for Spoken Language Understanding
with Pretrained Models
- Title(参考訳): 事前学習モデルを用いた音声理解のためのスロット値と文脈の強化
- Authors: Haitao Lin, Lu Xiang, Yu Zhou, Jiajun Zhang, Chengqing Zong
- Abstract要約: 音声言語理解(SLU)は対話システムを構築するための重要なステップである。
ラベル付きデータを取得するのにコストがかかるため、SLUはデータ不足の問題に悩まされる。
本稿では,価値ベースと文脈ベースの拡張という,微調整プロセスのための2つの戦略を提案する。
- 参考スコア(独自算出の注目度): 45.477765875738115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spoken Language Understanding (SLU) is one essential step in building a
dialogue system. Due to the expensive cost of obtaining the labeled data, SLU
suffers from the data scarcity problem. Therefore, in this paper, we focus on
data augmentation for slot filling task in SLU. To achieve that, we aim at
generating more diverse data based on existing data. Specifically, we try to
exploit the latent language knowledge from pretrained language models by
finetuning them. We propose two strategies for finetuning process: value-based
and context-based augmentation. Experimental results on two public SLU datasets
have shown that compared with existing data augmentation methods, our proposed
method can generate more diverse sentences and significantly improve the
performance on SLU.
- Abstract(参考訳): 音声言語理解(SLU)は対話システムを構築するための重要なステップである。
ラベル付きデータを取得するのにコストがかかるため、SLUはデータ不足の問題に悩まされる。
そこで本稿では,SLUにおけるスロット充足作業のためのデータ拡張に着目した。
そこで我々は,既存のデータに基づいて,より多様なデータを生成することを目指す。
具体的には,事前学習した言語モデルから潜在言語知識を微調整することで活用しようとする。
我々は、価値ベースとコンテキストベースの強化という2つの微調整戦略を提案する。
2つの公開SLUデータセットの実験結果から,既存のデータ拡張手法と比較して,より多様な文を生成することができ,SLUの性能を大幅に向上させることができることがわかった。
関連論文リスト
- Towards Spoken Language Understanding via Multi-level Multi-grained Contrastive Learning [50.1035273069458]
音声言語理解(SLU)はタスク指向対話システムにおける中核的なタスクである。
本稿では,発話レベル,スロットレベル,単語レベルを含む3段階のコントラスト学習を実現するためのマルチレベルMMCLフレームワークを提案する。
本フレームワークは,2つの公開マルチインテリジェントSLUデータセットに対して,最先端の新たな結果を実現する。
論文 参考訳(メタデータ) (2024-05-31T14:34:23Z) - I$^2$KD-SLU: An Intra-Inter Knowledge Distillation Framework for
Zero-Shot Cross-Lingual Spoken Language Understanding [1.223779595809275]
ゼロショット音声言語理解のためのイントライントラ知識蒸留フレームワーク(I$2KD-SLU)を提案する。
具体的には,意図予測と同一発話のスロット予測の間に知識内蒸留を適用するだけでなく,意図予測と同一発話のスロット予測との間に知識間蒸留を適用する。
実験の結果,提案するフレームワークは,強靭なベースラインに比べて性能が著しく向上することが示された。
論文 参考訳(メタデータ) (2023-10-04T05:45:23Z) - LaDA: Latent Dialogue Action For Zero-shot Cross-lingual Neural Network
Language Modeling [20.002861239367704]
言語間適応は限られた資源を持つ音声言語理解システムにおいて有効であることが証明されている。
既存の方法はしばしばインテント検出やスロットフィリングに不満足である。
復号化戦略を最適化するために、潜在対話アクション層が提案されている。
論文 参考訳(メタデータ) (2023-08-05T15:51:45Z) - Improving Textless Spoken Language Understanding with Discrete Units as
Intermediate Target [58.59044226658916]
Spoken Language Understanding (SLU) は、音声音声から意味情報を抽出することを目的としたタスクである。
本研究では,テキストレスSLUの性能向上のための中間ガイダンスとして離散単位を用いることを提案する。
論文 参考訳(メタデータ) (2023-05-29T14:00:24Z) - STOP: A dataset for Spoken Task Oriented Semantic Parsing [66.14615249745448]
エンドツーエンド音声言語理解(SLU)は単一モデルを用いて音声から直接意図を予測する。
Spoken Task-Oriented semantic Parsing (STOP) データセットをリリースします。
人間が録音した音声に加えて、我々はTS生成バージョンをリリースし、エンド・ツー・エンドのSLUシステムの低リソース領域適応の性能をベンチマークする。
論文 参考訳(メタデータ) (2022-06-29T00:36:34Z) - Learning from Multiple Noisy Augmented Data Sets for Better
Cross-Lingual Spoken Language Understanding [69.40915115518523]
トレーニングデータの欠如は、低リソース言語への音声言語理解(SLU)をスケールアウトする上で大きな課題となる。
低リソースターゲット言語でのトレーニングデータを合成するために、様々なデータ拡張手法が提案されている。
本稿では,拡張データにおけるノイズの軽減に焦点をあてる。
論文 参考訳(メタデータ) (2021-09-03T15:44:15Z) - Data Augmentation for Spoken Language Understanding via Pretrained
Language Models [113.56329266325902]
音声言語理解(SLU)モデルの訓練は、しばしばデータ不足の問題に直面している。
我々は,事前学習言語モデルを用いたデータ拡張手法を提案し,生成した発話の変動性と精度を向上した。
論文 参考訳(メタデータ) (2020-04-29T04:07:12Z) - Transfer Learning for Context-Aware Spoken Language Understanding [3.763434958496263]
音声言語理解(SLU)はタスク指向対話システムの主要な構成要素である。
これまでの研究では、コンテキスト情報の導入により、マルチターン対話におけるSLUの性能が大幅に向上することが示されている。
本稿では, 文脈適応型言語変換器(CELT)モデルを提案する。
論文 参考訳(メタデータ) (2020-03-03T02:56:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。