論文の概要: Explainable Slot Type Attentions to Improve Joint Intent Detection and
Slot Filling
- arxiv url: http://arxiv.org/abs/2210.10227v1
- Date: Wed, 19 Oct 2022 00:56:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 12:33:07.756886
- Title: Explainable Slot Type Attentions to Improve Joint Intent Detection and
Slot Filling
- Title(参考訳): ジョイントインテント検出とスロットフィリングを改善するための説明可能なスロット型注意
- Authors: Kalpa Gunaratna, Vijay Srinivasan, Akhila Yerukola, and Hongxia Jin
- Abstract要約: 統合意図検出とスロット充填は自然言語理解(NLU)における重要な研究課題である
既存の統合インテントとスロットフィリングシステムは、全てのスロットタイプで機能を分析し、計算する。
i) 精度を向上させるために追加のスロットタイプ固有の特徴を生成することを学習し、(ii) 共同NLUモデルにおいて初めてスロットフィリング決定に関する説明を提供する、という新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 39.22929726787844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Joint intent detection and slot filling is a key research topic in natural
language understanding (NLU). Existing joint intent and slot filling systems
analyze and compute features collectively for all slot types, and importantly,
have no way to explain the slot filling model decisions. In this work, we
propose a novel approach that: (i) learns to generate additional slot type
specific features in order to improve accuracy and (ii) provides explanations
for slot filling decisions for the first time in a joint NLU model. We perform
an additional constrained supervision using a set of binary classifiers for the
slot type specific feature learning, thus ensuring appropriate attention
weights are learned in the process to explain slot filling decisions for
utterances. Our model is inherently explainable and does not need any post-hoc
processing. We evaluate our approach on two widely used datasets and show
accuracy improvements. Moreover, a detailed analysis is also provided for the
exclusive slot explainability.
- Abstract(参考訳): 共同意図検出とスロット充填は自然言語理解(NLU)において重要な研究課題である。
既存の統合インテントとスロットフィリングシステムでは,全てのスロットタイプの特徴を総合的に分析・計算し,スロットフィリングモデル決定を説明する方法がない。
本稿では,新しいアプローチを提案する。
i) 精度と精度を向上させるため、追加のスロットタイプ固有の特徴を生成することを学ぶ
(II) 共同NLUモデルにおいて, スロット充足決定のための説明を初めて提供する。
我々は,スロット型特徴学習のための2値分類器のセットを用いて,追加の制約付き監督を行い,その過程で適切な注意重みを学習し,発話のスロット充足決定を説明する。
私たちのモデルは本質的に説明可能で、ポストホックな処理は不要です。
広く使われている2つのデータセットに対するアプローチを評価し、精度の向上を示す。
さらに、排他的スロット説明可能性についても詳細な分析を行う。
関連論文リスト
- Adaptive Slot Attention: Object Discovery with Dynamic Slot Number [64.45419820717754]
スロットアテンションを含むほとんどのオブジェクト中心モデルの大きな欠点は、スロットの数を事前に定義することに依存することである。
本フレームワークでは,最適スロット数を動的に決定するアダプティブスロットアテンション(AdaSlot)機構を導入する。
我々のフレームワークは、さまざまなデータセットでオブジェクト発見タスクを広範囲にテストし、パフォーマンスの整合性を示すか、上位の固定スロットモデルを超えるかを示す。
論文 参考訳(メタデータ) (2024-06-13T14:55:11Z) - JPIS: A Joint Model for Profile-based Intent Detection and Slot Filling
with Slot-to-Intent Attention [11.12158809959412]
プロファイルに基づく意図検出とスロットフィリングは、ユーザの発話のあいまいさを軽減するために重要なタスクである。
本稿では,プロファイルに基づく意図検出とスロットフィリングの強化を目的としたジョイントモデルJPISを提案する。
実験の結果,JPISは従来のプロファイルベースモデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-12-14T08:30:38Z) - HierarchicalContrast: A Coarse-to-Fine Contrastive Learning Framework
for Cross-Domain Zero-Shot Slot Filling [4.1940152307593515]
ドメイン間のゼロショットスロットフィリングは、モデルを学ぶためにソースドメイン知識を活用する上で重要な役割を果たす。
既存のゼロショットスロット充填法では、ターゲット領域での一般化能力が制限されている。
ゼロショットスロットフィリングのための新しい階層型コントラスト学習フレームワーク(HiCL)を提案する。
論文 参考訳(メタデータ) (2023-10-13T14:23:33Z) - Slot Induction via Pre-trained Language Model Probing and Multi-level
Contrastive Learning [62.839109775887025]
トークンレベルのスロットアノテーションの明示的な知識なしでスロット境界を誘導することを目的としたスロットインジェクション(SI)タスク。
PLMから抽出した教師なし意味知識を活用するために、教師なし事前学習言語モデル(PLM)探索とコントラスト学習機構を活用することを提案する。
提案手法は,2つのNLUベンチマークデータセット上でトークンレベルの教師付きモデルとのギャップを埋めることができ,SIタスクに有効であることが示されている。
論文 参考訳(メタデータ) (2023-08-09T05:08:57Z) - Towards Joint Intent Detection and Slot Filling via Higher-order
Attention [47.78365472691051]
Intent Detection (ID) と Slot fill (SF) は、音声言語理解(SLU)における2つの主要なタスクである。
本稿では,文脈的およびチャネル的両線的アテンション分布を利用したバイリニアアテンションブロックを提案する。
我々のアプローチは最先端のアプローチと比較して改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-18T09:50:23Z) - Joint Intent Detection And Slot Filling Based on Continual Learning
Model [18.961950574045648]
連続学習関連モデル (CLIM) を提案し, 特徴の異なる意味情報を考察した。
実験結果はCLIMがATISおよびSnipsのスロット満ちることおよび意図の検出で達成することを示します。
論文 参考訳(メタデータ) (2021-02-22T11:10:35Z) - SlotRefine: A Fast Non-Autoregressive Model for Joint Intent Detection
and Slot Filling [22.6796529031142]
スロットフィリングとインテント検出は、音声言語理解(SLU)システムにおける2つの主要なタスクである。
本稿では,SlotRefineという非自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2020-10-06T13:16:53Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Attention-based Neural Bag-of-Features Learning for Sequence Data [143.62294358378128]
2D-Attention (2DA) は、シーケンスデータの一般的なアテンション定式化である。
提案したアテンションモジュールは、最近提案されたNeural Bag of Feature(NBoF)モデルに組み込まれ、学習能力を高める。
実験により,提案手法はNBoFモデルの性能を向上させるだけでなく,ノイズに耐性を持つことを示す。
論文 参考訳(メタデータ) (2020-05-25T17:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。