論文の概要: A Scope Sensitive and Result Attentive Model for Multi-Intent Spoken
Language Understanding
- arxiv url: http://arxiv.org/abs/2211.12220v1
- Date: Tue, 22 Nov 2022 12:24:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 19:05:53.130878
- Title: A Scope Sensitive and Result Attentive Model for Multi-Intent Spoken
Language Understanding
- Title(参考訳): マルチインテント音声言語理解のためのスコープ感度と結果注意モデル
- Authors: Lizhi Cheng, Wenmian Yang, Weijia Jia
- Abstract要約: SLU(Multi-Intent Spoken Language Understanding)が注目されている。
従来のSLUとは異なり、このシナリオの各意図は特定のスコープを持ち、スコープ外の意味情報は予測を妨げます。
本稿では,Scope Recognizer (SR) と Result Attention Network (RAN) を含む Transformer に基づく新しいScope-Sensitive Result Attention Network (SSRAN) を提案する。
- 参考スコア(独自算出の注目度): 18.988599232838766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-Intent Spoken Language Understanding (SLU), a novel and more complex
scenario of SLU, is attracting increasing attention. Unlike traditional SLU,
each intent in this scenario has its specific scope. Semantic information
outside the scope even hinders the prediction, which tremendously increases the
difficulty of intent detection. More seriously, guiding slot filling with these
inaccurate intent labels suffers error propagation problems, resulting in
unsatisfied overall performance. To solve these challenges, in this paper, we
propose a novel Scope-Sensitive Result Attention Network (SSRAN) based on
Transformer, which contains a Scope Recognizer (SR) and a Result Attention
Network (RAN). Scope Recognizer assignments scope information to each token,
reducing the distraction of out-of-scope tokens. Result Attention Network
effectively utilizes the bidirectional interaction between results of slot
filling and intent detection, mitigating the error propagation problem.
Experiments on two public datasets indicate that our model significantly
improves SLU performance (5.4\% and 2.1\% on Overall accuracy) over the
state-of-the-art baseline.
- Abstract(参考訳): SLUの新しい複雑なシナリオであるMulti-Intent Spoken Language Understanding (SLU)が注目を集めている。
従来のSLUとは異なり、このシナリオにおける各意図は特定のスコープを持つ。
範囲外の意味情報は、意図の検出の難しさを著しく増大させる予測を妨げます。
さらに深刻なことに、これらの不正確な意図ラベルでスロットフィリングを導くことは、エラーの伝搬問題に悩まされ、全体的な性能が不満足になる。
これらの課題を解決するために,本稿では,スコープ認識器 (sr) と結果注意ネットワーク (ran) を含むトランスフォーマティブに基づく,新たなスコープ感応結果注意ネットワーク (ssran) を提案する。
スコープ認識者は各トークンにスコープ情報を割り当て、スコープ外トークンの混乱を減らす。
結果注意ネットワークは、スロットフィリングの結果とインテント検出の双方向相互作用を効果的に利用し、エラー伝搬問題を緩和する。
2つの公開データセットの実験により、我々のモデルは最先端のベースラインよりもSLU性能(全体的な精度では5.4\%と2.1\%)を著しく改善することが示された。
関連論文リスト
- Intent Detection in the Age of LLMs [3.755082744150185]
インテント検出はタスク指向対話システム(TODS)の重要な構成要素である
従来のアプローチは、計算効率の良い教師付き文変換器エンコーダモデルに依存していた。
固有の世界知識を持つ生成的大言語モデル(LLM)の出現は、これらの課題に対処する新たな機会を提供する。
論文 参考訳(メタデータ) (2024-10-02T15:01:55Z) - SCLNet: A Scale-Robust Complementary Learning Network for Object Detection in UAV Images [0.0]
本稿では,SCLNet(Scale-robust complementary learning network)を提案する。
1つの実装は、提案したスケール補完デコーダとスケール補完損失関数に基づいている。
もう一つの実装は、提案したコントラッシブ・コントラスト・コントラスト・コントラスト・コントラスト・ネットワークとコントラスト・コントラスト・コントラスト・コントラスト・コントラスト・ロス関数に基づいている。
論文 参考訳(メタデータ) (2024-09-11T05:39:25Z) - CroPrompt: Cross-task Interactive Prompting for Zero-shot Spoken Language Understanding [40.75828713474074]
音声言語理解のためのクロスタスク対話型プロンプト(CroPrompt)を提案する。
CroPromptは、SLU内の関連タスク間の情報交換をインタラクティブに活用することを可能にする。
また、インテント情報注入によるエラー伝播を軽減するために、マルチタスクの自己整合機構を導入する。
論文 参考訳(メタデータ) (2024-06-15T04:54:56Z) - SwiMDiff: Scene-wide Matching Contrastive Learning with Diffusion
Constraint for Remote Sensing Image [21.596874679058327]
SwiMDiffは、リモートセンシング画像のための新しい自己教師付き事前トレーニングフレームワークである。
ラベルを再分類し、同じシーンからのデータを偽陰性として認識する。
対照的学習(CL)と拡散モデルとをシームレスに統合する。
論文 参考訳(メタデータ) (2024-01-10T11:55:58Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Discriminative Nearest Neighbor Few-Shot Intent Detection by
Transferring Natural Language Inference [150.07326223077405]
データ不足を緩和するためには、ほとんどショットラーニングが注目を集めている。
深部自己注意を伴う識別的近傍分類を提示する。
自然言語推論モデル(NLI)を変換することで識別能力を高めることを提案する。
論文 参考訳(メタデータ) (2020-10-25T00:39:32Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z) - AGIF: An Adaptive Graph-Interactive Framework for Joint Multiple Intent
Detection and Slot Filling [69.59096090788125]
本稿では,多目的検出とスロットフィリングを併用する適応グラフ対話フレームワーク(AGIF)を提案する。
スロットとインテントの強い相関関係をモデル化するために,インテント-スロットグラフ相互作用層を導入する。
このような相互作用層が各トークンに適応的に適用され、関連する意図情報を自動抽出する利点がある。
論文 参考訳(メタデータ) (2020-04-21T15:07:34Z) - Crowd Counting via Hierarchical Scale Recalibration Network [61.09833400167511]
本稿では,群集カウントの課題に取り組むために,階層型大規模校正ネットワーク(HSRNet)を提案する。
HSRNetは、リッチなコンテキスト依存をモデル化し、複数のスケール関連情報を再検討する。
提案手法は,様々なノイズを選択的に無視し,適切な群集スケールに自動的に焦点を合わせることができる。
論文 参考訳(メタデータ) (2020-03-07T10:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。