論文の概要: An Attention-over-Attention Generative Model for Joint Multiple Intent Detection and Slot Filling
- arxiv url: http://arxiv.org/abs/2602.08322v1
- Date: Mon, 09 Feb 2026 06:52:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.093743
- Title: An Attention-over-Attention Generative Model for Joint Multiple Intent Detection and Slot Filling
- Title(参考訳): 複数物体の同時検出とスロット充満のための注意オーバ・アテンション生成モデル
- Authors: Wei Zhu,
- Abstract要約: タスク指向対話システムでは、音声言語理解(SLU)は2つのサブタスク、意図検出、スロットフィリングからなる重要なコンポーネントである。
既存のほとんどのメソッドは、各発話が1つの意図しか持たない単一意図のSLUに焦点を当てている。
本稿では,複数の意図の検出とスロットフィリングを同時に行うための生成フレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.615835506868351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In task-oriented dialogue systems, spoken language understanding (SLU) is a critical component, which consists of two sub-tasks, intent detection and slot filling. Most existing methods focus on the single-intent SLU, where each utterance only has one intent. However, in real-world scenarios users usually express multiple intents in an utterance, which poses a challenge for existing dialogue systems and datasets. In this paper, we propose a generative framework to simultaneously address multiple intent detection and slot filling. In particular, an attention-over-attention decoder is proposed to handle the variable number of intents and the interference between the two sub-tasks by incorporating an inductive bias into the process of multi-task learning. Besides, we construct two new multi-intent SLU datasets based on single-intent utterances by taking advantage of the next sentence prediction (NSP) head of the BERT model. Experimental results demonstrate that our proposed attention-over-attention generative model achieves state-of-the-art performance on two public datasets, MixATIS and MixSNIPS, and our constructed datasets.
- Abstract(参考訳): タスク指向対話システムでは、音声言語理解(SLU)は2つのサブタスク、意図検出、スロットフィリングからなる重要なコンポーネントである。
既存のほとんどのメソッドは、各発話が1つの意図しか持たない単一意図のSLUに焦点を当てている。
しかし、現実のシナリオでは、ユーザーは通常、発話中に複数の意図を表現し、既存の対話システムやデータセットに挑戦する。
本稿では,複数の意図の検出とスロットフィリングを同時に行うための生成フレームワークを提案する。
特に,多タスク学習のプロセスに帰納バイアスを組み込むことにより,意図の変動数と2つのサブタスク間の干渉を処理するために,注意過多デコーダを提案する。
さらに、BERTモデルの次の文予測(NSP)ヘッドを利用して、単一インテント発話に基づく2つの新しいマルチインテントSLUデータセットを構築した。
実験の結果,提案手法は,MixATISとMixSNIPSの2つの公開データセットと構築したデータセットに対して,最先端の性能を実現する。
関連論文リスト
- Towards Unified Multimodal Misinformation Detection in Social Media: A Benchmark Dataset and Baseline [56.790045049514326]
詐欺の2つの主要な形態は、人造誤報とAI生成コンテンツである。
両形態の偽造を扱うためのフレームワークであるUMFDet(Unified Multimodal Fake Content Detection)を提案する。
UMFDetは、両方の誤情報型に対して堅牢で一貫したパフォーマンスを実現し、特殊ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-09-30T09:26:32Z) - A Pointer Network-based Approach for Joint Extraction and Detection of Multi-Label Multi-Class Intents [12.62162175115002]
本研究では,クエリから複数のインテントを抽出し,複数のインテントを検出すること,多言語インテントデータセットの開発という3つの重要な課題に対処する。
本稿では,既存のベンチマークデータセットから得られた新しいマルチラベルマルチクラスインテント検出データセット(MLMCID-dataset)を紹介する。
また,インテントスパンを抽出するポインターネットワークベースアーキテクチャ(MLMCID)を提案し,シャープレットの形で粗いラベルときめ細かなラベルで複数のインテントを検出する。
論文 参考訳(メタデータ) (2024-10-29T19:10:12Z) - Towards Spoken Language Understanding via Multi-level Multi-grained Contrastive Learning [50.1035273069458]
音声言語理解(SLU)はタスク指向対話システムにおける中核的なタスクである。
本稿では,発話レベル,スロットレベル,単語レベルを含む3段階のコントラスト学習を実現するためのマルチレベルMMCLフレームワークを提案する。
本フレームワークは,2つの公開マルチインテリジェントSLUデータセットに対して,最先端の新たな結果を実現する。
論文 参考訳(メタデータ) (2024-05-31T14:34:23Z) - Multi-Grained Multimodal Interaction Network for Entity Linking [65.30260033700338]
マルチモーダルエンティティリンクタスクは、マルチモーダル知識グラフへの曖昧な言及を解決することを目的としている。
MELタスクを解決するための新しいMulti-Grained Multimodal InteraCtion Network $textbf(MIMIC)$ frameworkを提案する。
論文 参考訳(メタデータ) (2023-07-19T02:11:19Z) - Analysis of Utterance Embeddings and Clustering Methods Related to Intent Induction for Task-Oriented Dialogue [8.07809100513473]
本研究では,タスク指向のダイアログスキーマの設計における課題を克服するための教師なしアプローチについて検討する。
意図の自動誘導には,(1)インテントラベリングのためのクラスタリングアルゴリズム,(2)ユーザ発話の埋め込み空間の2つの因果関係を仮定する。
クラスタリングによる事前学習したMiniLMは,NMI,ARI,F1,精度,インテント誘導タスクにおけるサンプルカバレッジを著しく向上させた。
論文 参考訳(メタデータ) (2022-12-05T04:37:22Z) - A Unified Framework for Multi-intent Spoken Language Understanding with
prompting [14.17726194025463]
Prompt-based Spoken Language Understanding (PromptSLU) フレームワークについて述べる。
詳細は、音声をタスク固有のプロンプトテンプレートに入力として簡潔に充填し、キー-値ペアシーケンスの出力形式を共有することにより、IDとSFが完成する。
実験の結果,我々のフレームワークは2つの公開データセット上で,最先端のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-10-07T05:58:05Z) - SLIM: Explicit Slot-Intent Mapping with BERT for Joint Multi-Intent
Detection and Slot Filling [26.037061005620263]
タスク指向システムにおいて、発話レベルのインテント検出とトークンレベルのスロットフィリングは自然言語理解(NLU)のための2つの重要なタスクである。
本稿では,BERTに基づくマルチインテント検出とスロットフィリングを共同で学習する,SLIMと呼ばれるマルチインテントNLUフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-26T11:33:39Z) - A Co-Interactive Transformer for Joint Slot Filling and Intent Detection [61.109486326954205]
音声言語理解システム(SLU)を構築する上では,インテント検出とスロットフィリングが主要な2つのタスクである。
以前の研究では、2つのタスクを個別にモデル化するか、インテントからスロットへの単一の情報フローのみを考慮していた。
本稿では,2つのタスク間の相互影響を同時に検討するコ・インターアクティブ・トランスフォーマーを提案する。
論文 参考訳(メタデータ) (2020-10-08T10:16:52Z) - AGIF: An Adaptive Graph-Interactive Framework for Joint Multiple Intent
Detection and Slot Filling [69.59096090788125]
本稿では,多目的検出とスロットフィリングを併用する適応グラフ対話フレームワーク(AGIF)を提案する。
スロットとインテントの強い相関関係をモデル化するために,インテント-スロットグラフ相互作用層を導入する。
このような相互作用層が各トークンに適応的に適用され、関連する意図情報を自動抽出する利点がある。
論文 参考訳(メタデータ) (2020-04-21T15:07:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。