論文の概要: SLIM: Explicit Slot-Intent Mapping with BERT for Joint Multi-Intent
Detection and Slot Filling
- arxiv url: http://arxiv.org/abs/2108.11711v1
- Date: Thu, 26 Aug 2021 11:33:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-27 14:05:01.418033
- Title: SLIM: Explicit Slot-Intent Mapping with BERT for Joint Multi-Intent
Detection and Slot Filling
- Title(参考訳): SLIM:Slot-Intent Mapping with BERT for Joint Multi-Intent Detection and Slot Filling
- Authors: Fengyu Cai, Wanhao Zhou, Fei Mi and Boi Faltings
- Abstract要約: タスク指向システムにおいて、発話レベルのインテント検出とトークンレベルのスロットフィリングは自然言語理解(NLU)のための2つの重要なタスクである。
本稿では,BERTに基づくマルチインテント検出とスロットフィリングを共同で学習する,SLIMと呼ばれるマルチインテントNLUフレームワークを提案する。
- 参考スコア(独自算出の注目度): 26.037061005620263
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Utterance-level intent detection and token-level slot filling are two key
tasks for natural language understanding (NLU) in task-oriented systems. Most
existing approaches assume that only a single intent exists in an utterance.
However, there are often multiple intents within an utterance in real-life
scenarios. In this paper, we propose a multi-intent NLU framework, called SLIM,
to jointly learn multi-intent detection and slot filling based on BERT. To
fully exploit the existing annotation data and capture the interactions between
slots and intents, SLIM introduces an explicit slot-intent classifier to learn
the many-to-one mapping between slots and intents. Empirical results on three
public multi-intent datasets demonstrate (1) the superior performance of SLIM
compared to the current state-of-the-art for NLU with multiple intents and (2)
the benefits obtained from the slot-intent classifier.
- Abstract(参考訳): 発話レベルのインテント検出とトークンレベルのスロット充填は、タスク指向システムにおける自然言語理解(nlu)の2つの重要なタスクである。
既存のアプローチの多くは、発話には単一の意図しか存在しないと仮定している。
しかし、現実のシナリオでは、発話の中に複数の意図があることが多い。
本稿では,BERTに基づくマルチインテント検出とスロットフィリングを共同で学習する,SLIMと呼ばれるマルチインテントNLUフレームワークを提案する。
既存のアノテーションデータを完全に活用し、スロットとインテント間の相互作用をキャプチャするために、SLIMはスロットとインテント間の多対一マッピングを学習するための明示的なスロットインテント分類器を導入した。
3つの公開マルチインテントデータセットの実証的な結果から,(1)複数の意図を持つNLUの最先端技術と比較してSLIMの優れた性能を示し,(2)スロットインテント分類器から得られる利点を示した。
関連論文リスト
- A Pointer Network-based Approach for Joint Extraction and Detection of Multi-Label Multi-Class Intents [12.62162175115002]
本研究では,クエリから複数のインテントを抽出し,複数のインテントを検出すること,多言語インテントデータセットの開発という3つの重要な課題に対処する。
本稿では,既存のベンチマークデータセットから得られた新しいマルチラベルマルチクラスインテント検出データセット(MLMCID-dataset)を紹介する。
また,インテントスパンを抽出するポインターネットワークベースアーキテクチャ(MLMCID)を提案し,シャープレットの形で粗いラベルときめ細かなラベルで複数のインテントを検出する。
論文 参考訳(メタデータ) (2024-10-29T19:10:12Z) - Towards Spoken Language Understanding via Multi-level Multi-grained Contrastive Learning [50.1035273069458]
音声言語理解(SLU)はタスク指向対話システムにおける中核的なタスクである。
本稿では,発話レベル,スロットレベル,単語レベルを含む3段階のコントラスト学習を実現するためのマルチレベルMMCLフレームワークを提案する。
本フレームワークは,2つの公開マルチインテリジェントSLUデータセットに対して,最先端の新たな結果を実現する。
論文 参考訳(メタデータ) (2024-05-31T14:34:23Z) - Slot Induction via Pre-trained Language Model Probing and Multi-level
Contrastive Learning [62.839109775887025]
トークンレベルのスロットアノテーションの明示的な知識なしでスロット境界を誘導することを目的としたスロットインジェクション(SI)タスク。
PLMから抽出した教師なし意味知識を活用するために、教師なし事前学習言語モデル(PLM)探索とコントラスト学習機構を活用することを提案する。
提案手法は,2つのNLUベンチマークデータセット上でトークンレベルの教師付きモデルとのギャップを埋めることができ,SIタスクに有効であることが示されている。
論文 参考訳(メタデータ) (2023-08-09T05:08:57Z) - D$^2$TV: Dual Knowledge Distillation and Target-oriented Vision Modeling
for Many-to-Many Multimodal Summarization [113.72253589338472]
many-to-many multimodal summarization (M$3$S) タスクは、どんな言語でも文書入力と対応する画像シーケンスで要約を生成することを目的としている。
本稿では,M$3$Sタスクのための二重知識蒸留と目標指向視覚モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-22T06:47:35Z) - A Unified Framework for Multi-intent Spoken Language Understanding with
prompting [14.17726194025463]
Prompt-based Spoken Language Understanding (PromptSLU) フレームワークについて述べる。
詳細は、音声をタスク固有のプロンプトテンプレートに入力として簡潔に充填し、キー-値ペアシーケンスの出力形式を共有することにより、IDとSFが完成する。
実験の結果,我々のフレームワークは2つの公開データセット上で,最先端のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-10-07T05:58:05Z) - Joint Multiple Intent Detection and Slot Filling via Self-distillation [29.17761742391222]
Intent Detection と slot fill は、自然言語理解(NLU)における2つの主要なタスクであり、発話からユーザのニーズを特定する。
これまでのほとんどの研究は、各発話が1つの意図にしか対応していないと仮定しており、多くの場合、ユーザーが発する発話が複数の意図を含む可能性があるという事実を無視している。
マルチインテリジェントNLUのための新しい自己蒸留結合型NLUモデル(SDJN)を提案する。
論文 参考訳(メタデータ) (2021-08-18T08:45:03Z) - GL-GIN: Fast and Accurate Non-Autoregressive Model for Joint Multiple
Intent Detection and Slot Filling [31.833158491112005]
マルチインテントSLUは、発話中に複数のインテントを処理できるため、注目を集めている。
本稿では,複数方向検出とスロット充填のための非自己回帰モデルについて検討する。
我々のフレームワークは11.5倍高速で最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2021-06-03T15:22:38Z) - Intent Recognition and Unsupervised Slot Identification for Low
Resourced Spoken Dialog Systems [46.705058576039065]
ユニバーサル電話認識システムを用いて音声を音声転写に変換する音響ベースのSLUシステムを提案する。
これらの音声転写から意図認識とスロット識別を行う単語のない自然言語理解モジュールを構築します。
タミルではインテント分類が10%以上改善され,シンハラではインテント分類が5%以上向上した。
論文 参考訳(メタデータ) (2021-04-03T01:58:27Z) - AGIF: An Adaptive Graph-Interactive Framework for Joint Multiple Intent
Detection and Slot Filling [69.59096090788125]
本稿では,多目的検出とスロットフィリングを併用する適応グラフ対話フレームワーク(AGIF)を提案する。
スロットとインテントの強い相関関係をモデル化するために,インテント-スロットグラフ相互作用層を導入する。
このような相互作用層が各トークンに適応的に適用され、関連する意図情報を自動抽出する利点がある。
論文 参考訳(メタデータ) (2020-04-21T15:07:34Z) - Efficient Intent Detection with Dual Sentence Encoders [53.16532285820849]
本稿では,USE や ConveRT などの事前訓練された二重文エンコーダによるインテント検出手法を提案する。
提案するインテント検出器の有用性と適用性を示し,完全なBERT-Largeモデルに基づくインテント検出器よりも優れた性能を示す。
コードだけでなく、新しい挑戦的な単一ドメイン意図検出データセットもリリースしています。
論文 参考訳(メタデータ) (2020-03-10T15:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。