論文の概要: Semantic Role Labeling Guided Multi-turn Dialogue ReWriter
- arxiv url: http://arxiv.org/abs/2010.01417v1
- Date: Sat, 3 Oct 2020 19:50:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 08:44:59.478241
- Title: Semantic Role Labeling Guided Multi-turn Dialogue ReWriter
- Title(参考訳): 意味的役割ラベリングによるマルチターン対話リライト
- Authors: Kun Xu and Haochen Tan and Linfeng Song and Han Wu and Haisong Zhang
and Linqi Song and Dong Yu
- Abstract要約: 意味的役割ラベル付け(SRL)を用いて、誰が誰に何をしたかのコアセマンティック情報を強調することを提案する。
実験の結果、この情報は従来の最先端システムよりも優れていたRoBERTaベースのモデルを大幅に改善することが示された。
- 参考スコア(独自算出の注目度): 63.07073750355096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For multi-turn dialogue rewriting, the capacity of effectively modeling the
linguistic knowledge in dialog context and getting rid of the noises is
essential to improve its performance. Existing attentive models attend to all
words without prior focus, which results in inaccurate concentration on some
dispensable words. In this paper, we propose to use semantic role labeling
(SRL), which highlights the core semantic information of who did what to whom,
to provide additional guidance for the rewriter model. Experiments show that
this information significantly improves a RoBERTa-based model that already
outperforms previous state-of-the-art systems.
- Abstract(参考訳): 多ターン対話の書き直しには,対話文脈における言語知識を効果的にモデル化し,ノイズを除去する能力が不可欠である。
既存の注意モデルでは、すべての単語に前もって焦点を合わせることなく対応している。
本稿では,誰が誰に何をしたのかの中核的な意味情報を強調する意味的役割ラベリング(srl)を用いて,書き直しモデルに対する追加ガイダンスを提供する。
実験の結果、この情報は従来の最先端システムを上回るRoBERTaベースのモデルを大幅に改善することが示された。
関連論文リスト
- Integrating Self-supervised Speech Model with Pseudo Word-level Targets
from Visually-grounded Speech Model [57.78191634042409]
擬似単語レベルのターゲットを学習プロセスに統合するフレームワークであるPseudo-Word HuBERT(PW-HuBERT)を提案する。
4つの音声言語理解(SLU)ベンチマークによる実験結果から,意味情報の収集におけるモデルの有用性が示唆された。
論文 参考訳(メタデータ) (2024-02-08T16:55:21Z) - SPECTRUM: Speaker-Enhanced Pre-Training for Long Dialogue Summarization [48.284512017469524]
マルチターン対話は、その長さとターンテイクな会話の存在によって特徴づけられる。
伝統的な言語モデルは、しばしばそれらの対話の特徴を通常のテキストとして扱うことによって見落としている。
長文対話要約のための話者強化事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-31T04:50:00Z) - Improved Contextual Recognition In Automatic Speech Recognition Systems
By Semantic Lattice Rescoring [4.819085609772069]
本稿では,意味的格子処理によるASRシステム内における文脈認識の高度化のための新しい手法を提案する。
提案手法は,隠れマルコフモデルとガウス混合モデル(HMM-GMM)とディープニューラルネットワーク(DNN)モデルを用いて,精度を向上する。
本稿では,実験分析によるLibriSpeechデータセット上でのフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2023-10-14T23:16:05Z) - Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - Conversational Semantic Role Labeling with Predicate-Oriented Latent
Graph [40.43625257213158]
本稿では,述語中心のガウス機構を持つ述語指向潜在グラフ(POLar)を自動生成する。
POLar構造は動的に切断され、タスクニーズに最適なように洗練される。
さらに,対話レベルの事前学習型言語モデルであるCoDiaBERTを導入し,複数の発話文のサポートを向上する。
論文 参考訳(メタデータ) (2022-10-06T16:42:00Z) - Utterance Rewriting with Contrastive Learning in Multi-turn Dialogue [22.103162555263143]
比較学習とマルチタスク学習を導入し、問題を共同でモデル化する。
提案手法は,複数の公開データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-22T10:13:27Z) - CSAGN: Conversational Structure Aware Graph Network for Conversational
Semantic Role Labeling [27.528361001332264]
この問題に対処することを目的とした,CSRLのためのシンプルで効果的なアーキテクチャを提案する。
本モデルは,話者依存情報を明示的に符号化する対話型構造認識グラフネットワークに基づいている。
論文 参考訳(メタデータ) (2021-09-23T07:47:28Z) - Enhancing Dialogue Generation via Multi-Level Contrastive Learning [57.005432249952406]
質問に対する応答のきめ細かい品質をモデル化するマルチレベルコントラスト学習パラダイムを提案する。
Rank-aware (RC) ネットワークはマルチレベルコントラスト最適化の目的を構築するために設計されている。
本研究では,知識推論(KI)コンポーネントを構築し,学習中の参照からキーワードの知識を抽出し,そのような情報を活用して情報的単語の生成を促す。
論文 参考訳(メタデータ) (2020-09-19T02:41:04Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。