論文の概要: Parallel Intent and Slot Prediction using MLB Fusion
- arxiv url: http://arxiv.org/abs/2003.09211v1
- Date: Fri, 20 Mar 2020 11:48:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 21:58:42.179904
- Title: Parallel Intent and Slot Prediction using MLB Fusion
- Title(参考訳): MLB核融合を用いた並列インテントとスロット予測
- Authors: Anmol Bhasin, Bharatram Natarajan, Gaurav Mathur and Himanshu Mangla
- Abstract要約: 本稿では,各タスクに2方向ゲーテッド・リカレント・ユニット(GRU)を別々に使用する並列入出力・スロット予測手法を提案する。
本稿では,MLB(Multimodal Low-rank Bilinear Attention Network)融合を用いた意図学習とスロット学習の性能向上を提案する。
提案手法は,2つのベンチマークデータセット上での意図とスロット予測において,既存の最先端結果よりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intent and Slot Identification are two important tasks in Spoken Language
Understanding (SLU). For a natural language utterance, there is a high
correlation between these two tasks. A lot of work has been done on each of
these using Recurrent-Neural-Networks (RNN), Convolution Neural Networks (CNN)
and Attention based models. Most of the past work used two separate models for
intent and slot prediction. Some of them also used sequence-to-sequence type
models where slots are predicted after evaluating the utterance-level intent.
In this work, we propose a parallel Intent and Slot Prediction technique where
separate Bidirectional Gated Recurrent Units (GRU) are used for each task. We
posit the usage of MLB (Multimodal Low-rank Bilinear Attention Network) fusion
for improvement in performance of intent and slot learning. To the best of our
knowledge, this is the first attempt of using such a technique on text based
problems. Also, our proposed methods outperform the existing state-of-the-art
results for both intent and slot prediction on two benchmark datasets
- Abstract(参考訳): Intent と Slot Identification は Spoken Language Understanding (SLU) において重要な2つのタスクである。
自然言語発話では、これらの2つのタスクの間に高い相関関係がある。
いずれも、Recurrent-Neural-Networks(RNN)、Convolution Neural Networks(CNN)、Attentionベースのモデルを使用して、多くの作業が行われている。
過去の作業の多くはインテントとスロット予測のために2つの別々のモデルを使用していた。
それらの中には、発話レベルインテントの評価後にスロットが予測されるシーケンス・トゥ・シーケンス型モデルを用いたものもある。
本研究では,各タスクに別々の双方向Gated Recurrent Unit (GRU) を用いる並列Intent and Slot Prediction手法を提案する。
本稿では,MLB(Multimodal Low-rank Bilinear Attention Network)融合を用いた意図学習とスロット学習の性能向上を提案する。
我々の知る限りでは、このような手法をテキストベースの問題に応用する最初の試みである。
また,提案手法は,2つのベンチマークデータセット上での意図とスロット予測において,既存の最先端結果よりも優れていた。
関連論文リスト
- Multi-attention Associate Prediction Network for Visual Tracking [3.9628431811908533]
分類回帰予測ネットワークは、いくつかの現代のディープトラッカーにおいて驚くべき成功を収めている。
分類と回帰タスクには固有の違いがあるため、特徴マッチングの要求にも反対の要求がある。
上記の問題に対処するために,マルチアテンションアソシエイト予測ネットワーク(MAPNet)を提案する。
論文 参考訳(メタデータ) (2024-03-25T03:18:58Z) - Co-guiding for Multi-intent Spoken Language Understanding [53.30511968323911]
本稿では,2つのタスク間の相互指導を実現するための2段階のフレームワークを実装した,コガイドネットと呼ばれる新しいモデルを提案する。
第1段階では,単一タスクによる教師付きコントラスト学習を提案し,第2段階ではコガイドによる教師付きコントラスト学習を提案する。
マルチインテリジェントSLU実験の結果,我々のモデルは既存のモデルよりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-22T08:06:22Z) - Joint Multiple Intent Detection and Slot Filling with Supervised
Contrastive Learning and Self-Distillation [4.123763595394021]
複数の意図の検出とスロットフィリングは、音声言語理解における基本的かつ重要なタスクである。
インテントを同時に検出し、スロットを抽出できるジョイントモデルが好ましい。
本稿では,これらの課題に対処して複数の意図の検出とスロットフィリングを行う手法を提案する。
論文 参考訳(メタデータ) (2023-08-28T15:36:33Z) - Provable Multi-Task Representation Learning by Two-Layer ReLU Neural Networks [69.38572074372392]
本稿では,複数タスクにおける非線形モデルを用いたトレーニング中に特徴学習が発生することを示す最初の結果を示す。
私たちのキーとなる洞察は、マルチタスク事前トレーニングは、通常タスク間で同じラベルを持つポイントを整列する表現を好む擬似コントラスト的損失を誘導するということです。
論文 参考訳(メタデータ) (2023-07-13T16:39:08Z) - Refined Edge Usage of Graph Neural Networks for Edge Prediction [51.06557652109059]
We propose a novel edge prediction paradigm named Edge-aware Message PassIng neuRal nEtworks (EMPIRE)。
まず,各エッジをトポロジや監督のためにのみ使用するエッジ分割手法を提案する。
監視エッジで接続されたペアと接続されていないペアの差を強調するために、さらにメッセージを重み付けして、その差を反映できる相対的なペアを強調します。
論文 参考訳(メタデータ) (2022-12-25T23:19:56Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - A Unified Framework for Multi-intent Spoken Language Understanding with
prompting [14.17726194025463]
Prompt-based Spoken Language Understanding (PromptSLU) フレームワークについて述べる。
詳細は、音声をタスク固有のプロンプトテンプレートに入力として簡潔に充填し、キー-値ペアシーケンスの出力形式を共有することにより、IDとSFが完成する。
実験の結果,我々のフレームワークは2つの公開データセット上で,最先端のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-10-07T05:58:05Z) - A Generative Language Model for Few-shot Aspect-Based Sentiment Analysis [90.24921443175514]
我々は、アスペクト項、カテゴリを抽出し、対応する極性を予測するアスペクトベースの感情分析に焦点を当てる。
本稿では,一方向の注意を伴う生成言語モデルを用いて,抽出タスクと予測タスクをシーケンス生成タスクに再構成することを提案する。
提案手法は,従来の最先端(BERTをベースとした)の性能を,数ショットとフルショットの設定において,大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-04-11T18:31:53Z) - Retrieval Augmentation to Improve Robustness and Interpretability of
Deep Neural Networks [3.0410237490041805]
本研究では,深層ニューラルネットワークの堅牢性と解釈性を改善するために,トレーニングデータを積極的に活用する。
具体的には、LSTMモデルのメモリ状態を初期化したり、注意機構を誘導するために、最も近い入力例のターゲットを用いる。
その結果,Flickr8 と IMDB の2つのタスクに対して提案したモデルの有効性が示された。
論文 参考訳(メタデータ) (2021-02-25T17:38:31Z) - Joint Intent Detection and Slot Filling with Wheel-Graph Attention
Networks [6.939768185086755]
本稿では,車輪グラフ注意ネットワーク(Wheel-GAT)を用いた新しいジョイントモデルを提案する。
発話のためのグラフ構造を構築するために、意図ノード、スロットノード、有向エッジを作成する。
論文 参考訳(メタデータ) (2021-02-09T02:37:56Z) - AGIF: An Adaptive Graph-Interactive Framework for Joint Multiple Intent
Detection and Slot Filling [69.59096090788125]
本稿では,多目的検出とスロットフィリングを併用する適応グラフ対話フレームワーク(AGIF)を提案する。
スロットとインテントの強い相関関係をモデル化するために,インテント-スロットグラフ相互作用層を導入する。
このような相互作用層が各トークンに適応的に適用され、関連する意図情報を自動抽出する利点がある。
論文 参考訳(メタデータ) (2020-04-21T15:07:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。