論文の概要: A survey of joint intent detection and slot-filling models in natural
language understanding
- arxiv url: http://arxiv.org/abs/2101.08091v3
- Date: Mon, 22 Feb 2021 03:25:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 01:28:30.769458
- Title: A survey of joint intent detection and slot-filling models in natural
language understanding
- Title(参考訳): 自然言語理解における共同意図検出とスロット充足モデルの検討
- Authors: H. Weld, X. Huang, S. Long, J. Poon, S. C. Han (School of Computer
Science, The University of Sydney)
- Abstract要約: この記事は、自然言語理解、特に統合意図分類とスロットフィリングにおける過去の研究のまとめである。
本稿では,傾向,アプローチ,課題,データセット,意図分類における評価指標,スロット充填について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intent classification and slot filling are two critical tasks for natural
language understanding. Traditionally the two tasks have been deemed to proceed
independently. However, more recently, joint models for intent classification
and slot filling have achieved state-of-the-art performance, and have proved
that there exists a strong relationship between the two tasks. This article is
a compilation of past work in natural language understanding, especially joint
intent classification and slot filling. We observe three milestones in this
research so far: Intent detection to identify the speaker's intention, slot
filling to label each word token in the speech/text, and finally, joint intent
classification and slot filling tasks. In this article, we describe trends,
approaches, issues, data sets, evaluation metrics in intent classification and
slot filling. We also discuss representative performance values, describe
shared tasks, and provide pointers to future work, as given in prior works. To
interpret the state-of-the-art trends, we provide multiple tables that describe
and summarise past research along different dimensions, including the types of
features, base approaches, and dataset domain used.
- Abstract(参考訳): インテント分類とスロットフィリングは、自然言語理解にとって重要な2つのタスクである。
伝統的に、2つのタスクは独立して進行すると考えられてきた。
しかし、近年では、意図分類とスロットフィリングのジョイントモデルが最先端の性能を達成し、二つのタスクの間に強い関係があることが証明されている。
この記事は、自然言語理解、特に統合意図分類とスロットフィリングにおける過去の研究のまとめである。
本研究における3つのマイルストーンは,話者の意図を識別するインテント検出,各単語トークンを音声/テキストでラベル付けするためのスロットフィリング,そして最後に,共同意図分類とスロットフィリングタスクである。
本稿では,傾向,アプローチ,課題,データセット,意図分類における評価指標,スロット充填について述べる。
また、パフォーマンスの代表的な値を議論し、共有タスクを説明し、以前の作業で与えられたように、将来の作業へのポインタを提供する。
最先端のトレンドを解釈するために、特徴の種類、基本アプローチ、使用するデータセットドメインなど、さまざまな次元の過去の研究を記述し要約した複数のテーブルを提供する。
関連論文リスト
- IntenDD: A Unified Contrastive Learning Approach for Intent Detection
and Discovery [12.905097743551774]
バックボーンを符号化する共有発話を利用した統一手法であるIntenDDを提案する。
IntenDDは完全に教師なしのコントラスト学習戦略を用いて表現学習を行う。
当社のアプローチは,3つのタスクのすべてにおいて,競争上のベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2023-10-25T16:50:24Z) - Towards Open Vocabulary Learning: A Survey [146.90188069113213]
ディープニューラルネットワークは,セグメンテーションやトラッキング,検出といった,さまざまなコアタスクにおいて,目覚ましい進歩を遂げている。
近年、視覚言語事前学習の急速な進歩により、オープンな語彙設定が提案されている。
本稿では,その分野における最近の発展を要約し分析し,オープンな語彙学習の徹底的なレビューを行う。
論文 参考訳(メタデータ) (2023-06-28T02:33:06Z) - Association Graph Learning for Multi-Task Classification with Category
Shifts [68.58829338426712]
関連する分類タスクが同じラベル空間を共有し、同時に学習されるマルチタスク分類に焦点を当てる。
我々は、不足クラスのためのタスク間で知識を伝達する関連グラフを学習する。
我々の手法は代表的基準よりも一貫して性能が良い。
論文 参考訳(メタデータ) (2022-10-10T12:37:41Z) - A Unified Framework for Multi-intent Spoken Language Understanding with
prompting [14.17726194025463]
Prompt-based Spoken Language Understanding (PromptSLU) フレームワークについて述べる。
詳細は、音声をタスク固有のプロンプトテンプレートに入力として簡潔に充填し、キー-値ペアシーケンスの出力形式を共有することにより、IDとSFが完成する。
実験の結果,我々のフレームワークは2つの公開データセット上で,最先端のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-10-07T05:58:05Z) - Multi-grained Label Refinement Network with Dependency Structures for
Joint Intent Detection and Slot Filling [13.963083174197164]
発話の意図と意味的構成要素は、文の構文的要素に依存する。
本稿では,依存性構造とラベルセマンティック埋め込みを利用した多層ラベル精細ネットワークについて検討する。
構文表現の強化を考慮し,グラフアテンション層による文の係り受け構造をモデルに導入する。
論文 参考訳(メタデータ) (2022-09-09T07:27:38Z) - Coarse-to-Fine: Hierarchical Multi-task Learning for Natural Language
Understanding [51.31622274823167]
本稿では,各タスクの下位レベルを全タスクに共有し,中間レベルを異なるグループに分割し,上位レベルを各タスクに割り当てる,粗大なパラダイムを持つ階層型フレームワークを提案する。
これにより、すべてのタスクから基本言語特性を学習し、関連するタスクのパフォーマンスを高め、無関係なタスクから負の影響を減らすことができる。
論文 参考訳(メタデータ) (2022-08-19T02:46:20Z) - Bi-directional Joint Neural Networks for Intent Classification and Slot
Filling [5.3361357265365035]
目的分類とスロットフィリングのための双方向ジョイントモデルを提案する。
本モデルでは,意図分類の精度,スロットフィリングF1,文レベルのセマンティックフレームの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-02-26T06:35:21Z) - Analyzing the Limits of Self-Supervision in Handling Bias in Language [52.26068057260399]
我々は、言語モデルが、認識、識別、抽出、言い換えの4つのタスクのセマンティクスをいかにうまく捉えているかを評価する。
分析の結果,言語モデルでは,ジェンダーや政治的アフィリエイトなど,様々なバイアス次元にまたがって,これらのタスクを広範囲にわたって実行することが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-16T05:36:08Z) - Reciprocal Feature Learning via Explicit and Implicit Tasks in Scene
Text Recognition [60.36540008537054]
本研究では,従来のテキスト認識における文字数カウントという暗黙のタスクを,追加的な注釈コストなしで発掘する。
両タスクの機能を適切に活用するために,2分岐の相反的特徴学習フレームワークを設計する。
7つのベンチマークの実験では、テキスト認識と新しい文字カウントタスクの両方において提案手法の利点が示されている。
論文 参考訳(メタデータ) (2021-05-13T12:27:35Z) - Metric Learning vs Classification for Disentangled Music Representation
Learning [36.74680586571013]
本稿では,メートル法学習と分類,ゆがみの関係を包括的に解明する単一の表現学習フレームワークを提案する。
分類に基づくモデルは、訓練時間、類似性検索、自動タグ付けに一般的に有利であるのに対し、深度検定学習は三重項予測により良い性能を示す。
論文 参考訳(メタデータ) (2020-08-09T13:53:12Z) - AGIF: An Adaptive Graph-Interactive Framework for Joint Multiple Intent
Detection and Slot Filling [69.59096090788125]
本稿では,多目的検出とスロットフィリングを併用する適応グラフ対話フレームワーク(AGIF)を提案する。
スロットとインテントの強い相関関係をモデル化するために,インテント-スロットグラフ相互作用層を導入する。
このような相互作用層が各トークンに適応的に適用され、関連する意図情報を自動抽出する利点がある。
論文 参考訳(メタデータ) (2020-04-21T15:07:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。