論文の概要: A Unified Framework for Multi-intent Spoken Language Understanding with
prompting
- arxiv url: http://arxiv.org/abs/2210.03337v1
- Date: Fri, 7 Oct 2022 05:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 12:50:03.630821
- Title: A Unified Framework for Multi-intent Spoken Language Understanding with
prompting
- Title(参考訳): プロンプトを用いた多言語音声理解のための統一フレームワーク
- Authors: Feifan Song, Lianzhe Huang and Houfeng Wang
- Abstract要約: Prompt-based Spoken Language Understanding (PromptSLU) フレームワークについて述べる。
詳細は、音声をタスク固有のプロンプトテンプレートに入力として簡潔に充填し、キー-値ペアシーケンスの出力形式を共有することにより、IDとSFが完成する。
実験の結果,我々のフレームワークは2つの公開データセット上で,最先端のベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 14.17726194025463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-intent Spoken Language Understanding has great potential for widespread
implementation. Jointly modeling Intent Detection and Slot Filling in it
provides a channel to exploit the correlation between intents and slots.
However, current approaches are apt to formulate these two sub-tasks
differently, which leads to two issues: 1) It hinders models from effective
extraction of shared features. 2) Pretty complicated structures are involved to
enhance expression ability while causing damage to the interpretability of
frameworks. In this work, we describe a Prompt-based Spoken Language
Understanding (PromptSLU) framework, to intuitively unify two sub-tasks into
the same form by offering a common pre-trained Seq2Seq model. In detail, ID and
SF are completed by concisely filling the utterance into task-specific prompt
templates as input, and sharing output formats of key-value pairs sequence.
Furthermore, variable intents are predicted first, then naturally embedded into
prompts to guide slot-value pairs inference from a semantic perspective.
Finally, we are inspired by prevalent multi-task learning to introduce an
auxiliary sub-task, which helps to learn relationships among provided labels.
Experiment results show that our framework outperforms several state-of-the-art
baselines on two public datasets.
- Abstract(参考訳): 多言語音声言語理解は、幅広い実装において大きな可能性を秘めている。
Intent DetectionとSlot Fillingを共同でモデリングすることで、インテントとスロットの相関を利用するためのチャネルを提供する。
しかし、現在のアプローチではこれら2つのサブタスクを異なる方法で定式化する傾向にあり、2つの問題を引き起こす。
1)共有特徴の効果的な抽出からモデルを阻害する。
2) フレームワークの解釈性にダメージを与えながら, 表現能力の向上に極めて複雑な構造が関与している。
本稿では,事前学習されたseq2seqモデルを提供することにより,直感的に2つのサブタスクを同じ形式に統一する,promptslu(promptslu)フレームワークについて述べる。
詳細は、音声をタスク固有のプロンプトテンプレートに入力として簡潔に充填し、キー-値ペアシーケンスの出力形式を共有することでIDとSFを完成させる。
さらに、変数インテントが最初に予測され、その後自然にプロンプトに埋め込まれ、意味論的観点からスロット値ペアの推論を導く。
最後に,既存のマルチタスク学習から着想を得て,ラベル間の関係を学習する補助サブタスクを導入する。
実験の結果,我々のフレームワークは2つの公開データセット上で,最先端のベースラインよりも優れていた。
関連論文リスト
- PanoSent: A Panoptic Sextuple Extraction Benchmark for Multimodal Conversational Aspect-based Sentiment Analysis [74.41260927676747]
本稿では,マルチモーダル対話感分析(ABSA)を導入することでギャップを埋める。
タスクをベンチマークするために、手動と自動の両方で注釈付けされたデータセットであるPanoSentを構築し、高品質、大規模、マルチモーダル、マルチ言語主義、マルチシナリオを特徴とし、暗黙の感情要素と明示的な感情要素の両方をカバーする。
課題を効果的に解決するために,新しい多モーダルな大規模言語モデル(すなわちSentica)とパラフレーズベースの検証機構とともに,新しい感覚の連鎖推論フレームワークを考案した。
論文 参考訳(メタデータ) (2024-08-18T13:51:01Z) - Towards Spoken Language Understanding via Multi-level Multi-grained Contrastive Learning [50.1035273069458]
音声言語理解(SLU)はタスク指向対話システムにおける中核的なタスクである。
本稿では,発話レベル,スロットレベル,単語レベルを含む3段階のコントラスト学習を実現するためのマルチレベルMMCLフレームワークを提案する。
本フレームワークは,2つの公開マルチインテリジェントSLUデータセットに対して,最先端の新たな結果を実現する。
論文 参考訳(メタデータ) (2024-05-31T14:34:23Z) - Joint Multiple Intent Detection and Slot Filling with Supervised
Contrastive Learning and Self-Distillation [4.123763595394021]
複数の意図の検出とスロットフィリングは、音声言語理解における基本的かつ重要なタスクである。
インテントを同時に検出し、スロットを抽出できるジョイントモデルが好ましい。
本稿では,これらの課題に対処して複数の意図の検出とスロットフィリングを行う手法を提案する。
論文 参考訳(メタデータ) (2023-08-28T15:36:33Z) - Semantic Prompt for Few-Shot Image Recognition [76.68959583129335]
本稿では,数ショット学習のための新しいセマンティック・プロンプト(SP)手法を提案する。
提案手法は,1ショットの学習精度を平均3.67%向上させることにより,有望な結果が得られる。
論文 参考訳(メタデータ) (2023-03-24T16:32:19Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - Towards End-to-End Open Conversational Machine Reading [57.18251784418258]
オープン検索型会話機械読解(OR-CMR)タスクでは,機械は対話履歴とテキスト知識ベースに応答するマルチターン質問を行う必要がある。
OR-CMRを完全エンドツーエンドで統一されたテキスト・ツー・テキスト・タスクとしてモデル化し、ShARCおよびOR-ShARCデータセットを用いた実験により、提案したエンドツーエンド・フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-10-13T15:50:44Z) - Multi-grained Label Refinement Network with Dependency Structures for
Joint Intent Detection and Slot Filling [13.963083174197164]
発話の意図と意味的構成要素は、文の構文的要素に依存する。
本稿では,依存性構造とラベルセマンティック埋め込みを利用した多層ラベル精細ネットワークについて検討する。
構文表現の強化を考慮し,グラフアテンション層による文の係り受け構造をモデルに導入する。
論文 参考訳(メタデータ) (2022-09-09T07:27:38Z) - Improving Multi-task Generalization Ability for Neural Text Matching via
Prompt Learning [54.66399120084227]
最近の最先端のニューラルテキストマッチングモデル(PLM)は、様々なタスクに一般化することが難しい。
我々は、特殊化一般化訓練戦略を採用し、それをMatch-Promptと呼ぶ。
特殊化段階では、異なるマッチングタスクの記述はいくつかのプロンプトトークンにマッピングされる。
一般化段階において、テキストマッチングモデルは、多種多様なマッチングタスクを訓練することにより、本質的なマッチング信号を探索する。
論文 参考訳(メタデータ) (2022-04-06T11:01:08Z) - An Explicit-Joint and Supervised-Contrastive Learning Framework for
Few-Shot Intent Classification and Slot Filling [12.85364483952161]
Intent Classification (IC) と slot fill (SF) はタスク指向対話システムにおいて重要なビルディングブロックである。
クラスごとのトレーニングサンプルの数が非常に少ない場合、IC/SFモデルはほとんど機能しない。
そこで本稿では,数ショットの意図分類とスロットフィリングのための,明示的かつ教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-26T13:28:28Z) - Learning to Bridge Metric Spaces: Few-shot Joint Learning of Intent
Detection and Slot Filling [29.218780709974244]
そこで本研究では,データリッチドメイン上で意図とスロットの計量空間をブリッジする学習手法を提案する。
われわれのモデルは、1ショットと5ショット設定で強いベースラインをはるかに上回っている。
論文 参考訳(メタデータ) (2021-05-25T15:07:11Z) - A survey of joint intent detection and slot-filling models in natural
language understanding [0.0]
この記事は、自然言語理解、特に統合意図分類とスロットフィリングにおける過去の研究のまとめである。
本稿では,傾向,アプローチ,課題,データセット,意図分類における評価指標,スロット充填について述べる。
論文 参考訳(メタデータ) (2021-01-20T12:15:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。