論文の概要: CroPrompt: Cross-task Interactive Prompting for Zero-shot Spoken Language Understanding
- arxiv url: http://arxiv.org/abs/2406.10505v1
- Date: Sat, 15 Jun 2024 04:54:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 00:12:44.292171
- Title: CroPrompt: Cross-task Interactive Prompting for Zero-shot Spoken Language Understanding
- Title(参考訳): CroPrompt: ゼロショット言語理解のためのクロスタスク対話型プロンプト
- Authors: Libo Qin, Fuxuan Wei, Qiguang Chen, Jingxuan Zhou, Shijue Huang, Jiasheng Si, Wenpeng Lu, Wanxiang Che,
- Abstract要約: 音声言語理解のためのクロスタスク対話型プロンプト(CroPrompt)を提案する。
CroPromptは、SLU内の関連タスク間の情報交換をインタラクティブに活用することを可能にする。
また、インテント情報注入によるエラー伝播を軽減するために、マルチタスクの自己整合機構を導入する。
- 参考スコア(独自算出の注目度): 40.75828713474074
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Slot filling and intent detection are two highly correlated tasks in spoken language understanding (SLU). Recent SLU research attempts to explore zero-shot prompting techniques in large language models to alleviate the data scarcity problem. Nevertheless, the existing prompting work ignores the cross-task interaction information for SLU, which leads to sub-optimal performance. To solve this problem, we present the pioneering work of Cross-task Interactive Prompting (CroPrompt) for SLU, which enables the model to interactively leverage the information exchange across the correlated tasks in SLU. Additionally, we further introduce a multi-task self-consistency mechanism to mitigate the error propagation caused by the intent information injection. We conduct extensive experiments on the standard SLU benchmark and the results reveal that CroPrompt consistently outperforms the existing prompting approaches. In addition, the multi-task self-consistency mechanism can effectively ease the error propagation issue, thereby enhancing the performance. We hope this work can inspire more research on cross-task prompting for SLU.
- Abstract(参考訳): スロットフィリングとインテント検出は、音声言語理解(SLU)における2つの非常に相関性の高いタスクである。
近年のSLU研究は,データ不足問題を軽減するため,大規模言語モデルのゼロショットプロンプト技術を探究している。
それにもかかわらず、既存のプロンプト処理はSLUのクロスタスクインタラクション情報を無視し、それが準最適性能をもたらす。
この問題を解決するために,SLUにおけるクロスタスク・インタラクティブ・プロンプティング(CroPrompt)の先駆的な取り組みを提案する。
さらに、インテント情報注入によるエラー伝播を軽減するために、マルチタスクの自己整合機構を導入する。
我々は標準SLUベンチマークで広範な実験を行い、CroPromptが既存のプロンプト手法よりも一貫して優れていることを示した。
さらに、マルチタスク自己整合機構は、エラー伝搬問題を効果的に緩和し、性能を向上させることができる。
この研究によって、SLUのためのクロスタスクプロンプトの研究がさらに促進されることを願っている。
関連論文リスト
- Finding Task-specific Subnetworks in Multi-task Spoken Language Understanding Model [45.161909551392085]
ニューラルネットワークプルーニングによるマルチタスク音声言語理解モデルにおけるタスク特定作業の探索を提案する。
プレナードモデルでは,以前トレーニングしたタスクの性能劣化を最小限に抑えつつ,追加のASRやICデータに適応することに成功した。
論文 参考訳(メタデータ) (2024-06-18T06:39:41Z) - Towards Spoken Language Understanding via Multi-level Multi-grained Contrastive Learning [50.1035273069458]
音声言語理解(SLU)はタスク指向対話システムにおける中核的なタスクである。
本稿では,発話レベル,スロットレベル,単語レベルを含む3段階のコントラスト学習を実現するためのマルチレベルMMCLフレームワークを提案する。
本フレームワークは,2つの公開マルチインテリジェントSLUデータセットに対して,最先端の新たな結果を実現する。
論文 参考訳(メタデータ) (2024-05-31T14:34:23Z) - Towards ASR Robust Spoken Language Understanding Through In-Context
Learning With Word Confusion Networks [68.79880423713597]
本稿では,トップ仮説のみに頼るのではなく,ASRシステムの格子出力を利用する手法を提案する。
音声質問応答と意図分類を網羅した文脈内学習実験により,LLMの音声書き起こしに対する弾力性について明らかにした。
論文 参考訳(メタデータ) (2024-01-05T17:58:10Z) - ML-LMCL: Mutual Learning and Large-Margin Contrastive Learning for
Improving ASR Robustness in Spoken Language Understanding [55.39105863825107]
本稿では,ML-LMCL(Multual Learning and Large-Margin Contrastive Learning)を提案する。
微調整では、相互学習を適用し、手書き文字とASR文字の2つのSLUモデルを訓練する。
3つのデータセットの実験では、ML-LMCLは既存のモデルより優れ、新しい最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-19T16:53:35Z) - SLUE Phase-2: A Benchmark Suite of Diverse Spoken Language Understanding
Tasks [88.4408774253634]
音声言語理解(SLU)タスクは、音声研究コミュニティで何十年にもわたって研究されてきた。
SLUタスクベンチマークはそれほど多くはなく、既存のベンチマークの多くは、すべての研究者が自由に利用できないデータを使っている。
最近の研究は、いくつかのタスクにそのようなベンチマークを導入し始めている。
論文 参考訳(メタデータ) (2022-12-20T18:39:59Z) - A Scope Sensitive and Result Attentive Model for Multi-Intent Spoken
Language Understanding [18.988599232838766]
SLU(Multi-Intent Spoken Language Understanding)が注目されている。
従来のSLUとは異なり、このシナリオの各意図は特定のスコープを持ち、スコープ外の意味情報は予測を妨げます。
本稿では,Scope Recognizer (SR) と Result Attention Network (RAN) を含む Transformer に基づく新しいScope-Sensitive Result Attention Network (SSRAN) を提案する。
論文 参考訳(メタデータ) (2022-11-22T12:24:22Z) - STOP: A dataset for Spoken Task Oriented Semantic Parsing [66.14615249745448]
エンドツーエンド音声言語理解(SLU)は単一モデルを用いて音声から直接意図を予測する。
Spoken Task-Oriented semantic Parsing (STOP) データセットをリリースします。
人間が録音した音声に加えて、我々はTS生成バージョンをリリースし、エンド・ツー・エンドのSLUシステムの低リソース領域適応の性能をベンチマークする。
論文 参考訳(メタデータ) (2022-06-29T00:36:34Z) - Building Robust Spoken Language Understanding by Cross Attention between
Phoneme Sequence and ASR Hypothesis [15.159439853075645]
本稿では,SLU用クロスアテンションモデル(CASLU)を提案する。
クロスアテンションブロックは、音素と単語の埋め込みのきめ細かい相互作用をキャッチし、共同表現が入力の音素的特徴と意味的特徴を同時にキャッチできるようにする。
大規模な実験を3つのデータセットで実施し,提案手法の有効性と競争性を示した。
論文 参考訳(メタデータ) (2022-03-22T21:59:29Z) - A Result based Portable Framework for Spoken Language Understanding [15.99246711701726]
RPFSLU (Result-based Portable Framework for Spoken Language understanding) を提案する。
RPFSLUは、ほとんどの既存のシングルターンSLUモデルがマルチターン対話からコンテキスト情報を取得し、現在の予測中の対話履歴における予測結果を最大限に活用します。
公開データセットKVRETの実験結果は、ベースライン内のすべてのSLUモデルがマルチターンSLUタスクでRPFSLUによって強化されることを示した。
論文 参考訳(メタデータ) (2021-03-10T12:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。