論文の概要: SlotRefine: A Fast Non-Autoregressive Model for Joint Intent Detection
and Slot Filling
- arxiv url: http://arxiv.org/abs/2010.02693v2
- Date: Sat, 31 Oct 2020 12:29:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 04:50:59.460242
- Title: SlotRefine: A Fast Non-Autoregressive Model for Joint Intent Detection
and Slot Filling
- Title(参考訳): slotrefine:ジョイントインテント検出とスロット充填のための高速非自己回帰モデル
- Authors: Di Wu, Liang Ding, Fan Lu and Jian Xie
- Abstract要約: スロットフィリングとインテント検出は、音声言語理解(SLU)システムにおける2つの主要なタスクである。
本稿では,SlotRefineという非自己回帰モデルを提案する。
- 参考スコア(独自算出の注目度): 22.6796529031142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Slot filling and intent detection are two main tasks in spoken language
understanding (SLU) system. In this paper, we propose a novel
non-autoregressive model named SlotRefine for joint intent detection and slot
filling. Besides, we design a novel two-pass iteration mechanism to handle the
uncoordinated slots problem caused by conditional independence of
non-autoregressive model. Experiments demonstrate that our model significantly
outperforms previous models in slot filling task, while considerably speeding
up the decoding (up to X 10.77). In-depth analyses show that 1) pretraining
schemes could further enhance our model; 2) two-pass mechanism indeed remedy
the uncoordinated slots.
- Abstract(参考訳): スロットフィリングとインテント検出は、音声言語理解(SLU)システムにおける2つの主要なタスクである。
本稿では,ジョイントインテント検出とスロット充填のための新しい非自己回帰モデルであるslotrefineを提案する。
さらに,非自己回帰モデルの条件付き独立性に起因する非協調スロット問題に対処する新しい2パス繰り返し機構を設計する。
実験によると、このモデルはスロット充填作業で以前のモデルを大きく上回り、デコード(x10.77まで)を大幅にスピードアップする。
詳細な分析では
1) 事前学習方式は, モデルをさらに強化することができる。
2)2パス機構は、実際には非協調スロットを修復する。
関連論文リスト
- MISCA: A Joint Model for Multiple Intent Detection and Slot Filling with
Intent-Slot Co-Attention [9.414164374919029]
グラフに基づくジョイントモデルである最近の高度なアプローチは、まだ2つの潜在的な問題に直面している。
我々はMISCAというジョイントモデルを提案する。
我々のMISCAは、意図-スロットのコアテンション機構とラベルアテンション機構の基盤層を導入している。
論文 参考訳(メタデータ) (2023-12-10T03:38:41Z) - Co-guiding for Multi-intent Spoken Language Understanding [53.30511968323911]
本稿では,2つのタスク間の相互指導を実現するための2段階のフレームワークを実装した,コガイドネットと呼ばれる新しいモデルを提案する。
第1段階では,単一タスクによる教師付きコントラスト学習を提案し,第2段階ではコガイドによる教師付きコントラスト学習を提案する。
マルチインテリジェントSLU実験の結果,我々のモデルは既存のモデルよりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-22T08:06:22Z) - Joint Multiple Intent Detection and Slot Filling with Supervised
Contrastive Learning and Self-Distillation [4.123763595394021]
複数の意図の検出とスロットフィリングは、音声言語理解における基本的かつ重要なタスクである。
インテントを同時に検出し、スロットを抽出できるジョイントモデルが好ましい。
本稿では,これらの課題に対処して複数の意図の検出とスロットフィリングを行う手法を提案する。
論文 参考訳(メタデータ) (2023-08-28T15:36:33Z) - Slot Induction via Pre-trained Language Model Probing and Multi-level
Contrastive Learning [62.839109775887025]
トークンレベルのスロットアノテーションの明示的な知識なしでスロット境界を誘導することを目的としたスロットインジェクション(SI)タスク。
PLMから抽出した教師なし意味知識を活用するために、教師なし事前学習言語モデル(PLM)探索とコントラスト学習機構を活用することを提案する。
提案手法は,2つのNLUベンチマークデータセット上でトークンレベルの教師付きモデルとのギャップを埋めることができ,SIタスクに有効であることが示されている。
論文 参考訳(メタデータ) (2023-08-09T05:08:57Z) - WR-ONE2SET: Towards Well-Calibrated Keyphrase Generation [57.11538133231843]
キーワード生成は、入力文書を要約する短いフレーズを自動的に生成することを目的としている。
最近登場したONE2SETパラダイムは、キーフレーズをセットとして生成し、競争性能を達成した。
本稿では, ONE2SET を拡張した WR-ONE2SET を提案する。
論文 参考訳(メタデータ) (2022-11-13T09:56:24Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - Explainable Slot Type Attentions to Improve Joint Intent Detection and
Slot Filling [39.22929726787844]
統合意図検出とスロット充填は自然言語理解(NLU)における重要な研究課題である
既存の統合インテントとスロットフィリングシステムは、全てのスロットタイプで機能を分析し、計算する。
i) 精度を向上させるために追加のスロットタイプ固有の特徴を生成することを学習し、(ii) 共同NLUモデルにおいて初めてスロットフィリング決定に関する説明を提供する、という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-19T00:56:10Z) - FBI: Fingerprinting models with Benign Inputs [17.323638042215013]
本稿では,モデルファミリとその変種の概念を一般化することにより,モデルの大幅な修正に耐性のある指紋認証方式を提案する。
我々は、修正されていない画像である良性入力が、両方のタスクに十分な材料であることを実証することによって、両方の目標を達成する。
どちらのアプローチも、かつてない1000以上のネットワークに対して実験的に検証されている。
論文 参考訳(メタデータ) (2022-08-05T13:55:36Z) - GL-GIN: Fast and Accurate Non-Autoregressive Model for Joint Multiple
Intent Detection and Slot Filling [31.833158491112005]
マルチインテントSLUは、発話中に複数のインテントを処理できるため、注目を集めている。
本稿では,複数方向検出とスロット充填のための非自己回帰モデルについて検討する。
我々のフレームワークは11.5倍高速で最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2021-06-03T15:22:38Z) - Probing Model Signal-Awareness via Prediction-Preserving Input
Minimization [67.62847721118142]
モデルが正しい脆弱性信号を捕捉して予測する能力を評価する。
SAR(Signal-Aware Recall)と呼ばれる新しい指標を用いて,モデルの信号認識を計測する。
その結果,90年代以降のリコールから60年代以降のリコールは,新たな指標で大幅に減少した。
論文 参考訳(メタデータ) (2020-11-25T20:05:23Z) - Coach: A Coarse-to-Fine Approach for Cross-domain Slot Filling [65.09621991654745]
クロスドメインスロットフィリングはタスク指向ダイアログシステムにおいて重要なタスクである。
クロスドメインスロットフィリングのための粗粒度アプローチ(Coach)を提案する。
実験結果から,本モデルはスロット充填における最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-04-24T13:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。