論文の概要: Knowledge Augmented BERT Mutual Network in Multi-turn Spoken Dialogues
- arxiv url: http://arxiv.org/abs/2202.11299v1
- Date: Wed, 23 Feb 2022 04:03:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 02:58:06.637510
- Title: Knowledge Augmented BERT Mutual Network in Multi-turn Spoken Dialogues
- Title(参考訳): マルチターン音声対話における知識強化BERT相互ネットワーク
- Authors: Ting-Wei Wu and Biing-Hwang Juang
- Abstract要約: 本稿では,2つのSLUタスク間の対話コンテキストを相互に活用するために,BERTベースのジョイントモデルとナレッジアテンションモジュールを備えることを提案する。
さらにゲーティング機構を利用して、無関係な知識三重項をフィルタリングし、気を散らす理解を回避する。
2つの複雑なマルチターン対話データセットの実験的結果は、2つのSLUタスクをフィルター付き知識と対話コンテキストで相互にモデル化することで実証された。
- 参考スコア(独自算出の注目度): 6.4144180888492075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern spoken language understanding (SLU) systems rely on sophisticated
semantic notions revealed in single utterances to detect intents and slots.
However, they lack the capability of modeling multi-turn dynamics within a
dialogue particularly in long-term slot contexts. Without external knowledge,
depending on limited linguistic legitimacy within a word sequence may overlook
deep semantic information across dialogue turns. In this paper, we propose to
equip a BERT-based joint model with a knowledge attention module to mutually
leverage dialogue contexts between two SLU tasks. A gating mechanism is further
utilized to filter out irrelevant knowledge triples and to circumvent
distracting comprehension. Experimental results in two complicated multi-turn
dialogue datasets have demonstrate by mutually modeling two SLU tasks with
filtered knowledge and dialogue contexts, our approach has considerable
improvements compared with several competitive baselines.
- Abstract(参考訳): 現代の音声言語理解(SLU)システムは、意図やスロットを検出するために単一の発話で明らかになった洗練された意味概念に依存している。
しかし、特に長期スロットコンテキストにおいて、対話内のマルチターンダイナミクスをモデル化する能力は欠如している。
外部の知識がなければ、単語列内の限られた言語的正当性に依存して、対話のターンを越えて深い意味情報を見渡すことができる。
本稿では、2つのSLUタスク間の対話コンテキストを相互に活用するために、BERTベースのジョイントモデルに知識注意モジュールを装備することを提案する。
さらにゲーティング機構を利用して、無関係な知識三重項をフィルタリングし、邪魔な理解を回避する。
2つの複雑なマルチターン対話データセットにおける実験結果は,2つのsluタスクをフィルタした知識と対話コンテキストで相互にモデル化することで実証されている。
関連論文リスト
- Towards Spoken Language Understanding via Multi-level Multi-grained Contrastive Learning [50.1035273069458]
音声言語理解(SLU)はタスク指向対話システムにおける中核的なタスクである。
本稿では,発話レベル,スロットレベル,単語レベルを含む3段階のコントラスト学習を実現するためのマルチレベルMMCLフレームワークを提案する。
本フレームワークは,2つの公開マルチインテリジェントSLUデータセットに対して,最先端の新たな結果を実現する。
論文 参考訳(メタデータ) (2024-05-31T14:34:23Z) - Distilling Implicit Multimodal Knowledge into LLMs for Zero-Resource Dialogue Generation [22.606764428110566]
ゼロリソースコンテキストにおけるリッチな対話生成のための視覚的暗黙的知識蒸留フレームワーク(VIKDF)を提案する。
VIKDFは、知識蒸留と知識統合の2つの主要な段階で構成されている。
実験の結果,VIKDFは,高品質な対話を生成する上で,既存の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-05-16T14:21:33Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - Dual Semantic Knowledge Composed Multimodal Dialog Systems [114.52730430047589]
本稿では,MDS-S2という新しいマルチモーダルタスク指向対話システムを提案する。
コンテキスト関連属性と関係知識を知識ベースから取得する。
また、合成された応答表現から意味情報を抽出するために、潜在クエリ変数のセットを考案する。
論文 参考訳(メタデータ) (2023-05-17T06:33:26Z) - Multi-Stage Coarse-to-Fine Contrastive Learning for Conversation Intent
Induction [34.25242109800481]
本稿では,第11回対話システム技術チャレンジ(DSTC11)におけるタスク指向対話における会話からのインテントインジェクションの追跡方法について述べる。
意図的クラスタリングの本質は、異なる対話発話の表現を区別することにある。
DSTC11の評価結果では,このトラックの2つのサブタスクのうちの1位が提案システムである。
論文 参考訳(メタデータ) (2023-03-09T04:51:27Z) - Multimodal Dialog Systems with Dual Knowledge-enhanced Generative Pretrained Language Model [63.461030694700014]
マルチモーダルなタスク指向対話システム(DKMD)のための新しい二元的知識強化型事前学習言語モデルを提案する。
提案したDKMDは,2つの知識選択,2つの知識強調型文脈学習,知識強調型応答生成という3つの重要なコンポーネントから構成される。
パブリックデータセットの実験は、最先端の競合相手よりも提案されたDKMDの優位性を検証する。
論文 参考訳(メタデータ) (2022-07-16T13:02:54Z) - Back to the Future: Bidirectional Information Decoupling Network for
Multi-turn Dialogue Modeling [80.51094098799736]
ユニバーサル対話エンコーダとして双方向情報デカップリングネットワーク(BiDeN)を提案する。
BiDeNは過去と将来の両方のコンテキストを明示的に取り入れており、幅広い対話関連のタスクに一般化することができる。
異なる下流タスクのデータセットに対する実験結果は、我々のBiDeNの普遍性と有効性を示している。
論文 参考訳(メタデータ) (2022-04-18T03:51:46Z) - Who says like a style of Vitamin: Towards Syntax-Aware
DialogueSummarization using Multi-task Learning [2.251583286448503]
個々の話者からの発声と独特の統語構造との関係に焦点をあてる。
話者は、音声プリントのような言語情報を含むことができる独自のテキストスタイルを持つ。
構文認識情報と対話要約の両方をマルチタスクで学習する。
論文 参考訳(メタデータ) (2021-09-29T05:30:39Z) - A Context-Aware Hierarchical BERT Fusion Network for Multi-turn Dialog
Act Detection [6.361198391681688]
CaBERT-SLUはコンテキスト対応階層型BERT融合ネットワーク(CaBERT-SLU)である
提案手法は,2つの複雑なマルチターン対話データセットにおいて,最新技術(SOTA)のパフォーマンスに到達する。
論文 参考訳(メタデータ) (2021-09-03T02:00:03Z) - Masking Orchestration: Multi-task Pretraining for Multi-role Dialogue
Representation Learning [50.5572111079898]
マルチロール対話理解は、質問応答、行動分類、対話要約など、幅広い多様なタスクを含む。
対話コーパスは豊富に利用可能であるが、特定の学習タスクのためのラベル付きデータは非常に不足しており、高価である。
本研究では,教師なし事前学習タスクを用いた対話文脈表現学習について検討する。
論文 参考訳(メタデータ) (2020-02-27T04:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。