論文の概要: SARG: A Novel Semi Autoregressive Generator for Multi-turn Incomplete
Utterance Restoration
- arxiv url: http://arxiv.org/abs/2008.01474v3
- Date: Mon, 21 Dec 2020 03:10:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 00:14:27.173001
- Title: SARG: A Novel Semi Autoregressive Generator for Multi-turn Incomplete
Utterance Restoration
- Title(参考訳): sarg : 多ターン不完全発話復元のための新しい半自己回帰生成器
- Authors: Mengzuo Huang, Feng Li, Wuhe Zou and Weidong Zhang
- Abstract要約: 本稿では,マルチターン対話システムにおける不完全な発話復元について検討する。
本稿では,高い効率と柔軟性を有する新しい半自己回帰発電機(SARG)を提案する。
- 参考スコア(独自算出の注目度): 9.394277095571942
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dialogue systems in open domain have achieved great success due to the easily
obtained single-turn corpus and the development of deep learning, but the
multi-turn scenario is still a challenge because of the frequent coreference
and information omission. In this paper, we investigate the incomplete
utterance restoration which has brought general improvement over multi-turn
dialogue systems in recent studies. Meanwhile, jointly inspired by the
autoregression for text generation and the sequence labeling for text editing,
we propose a novel semi autoregressive generator (SARG) with the high
efficiency and flexibility. Moreover, experiments on two benchmarks show that
our proposed model significantly outperforms the state-of-the-art models in
terms of quality and inference speed.
- Abstract(参考訳): オープンドメインでの対話システムは、容易に得られるシングルターンコーパスと深層学習の発展によって大きな成功を収めてきたが、多ターンシナリオは、頻繁にコアと情報の欠落のため、依然として課題である。
本稿では,近年のマルチターン対話システムに対して,汎用的な改善をもたらす不完全発話復元について検討する。
一方,テキスト生成の自己回帰とテキスト編集のシーケンスラベリングに着想を得て,高い効率と柔軟性を有する新規な半自己回帰生成器(SARG)を提案する。
さらに,2つのベンチマーク実験により,提案モデルが品質および推論速度において最先端モデルよりも有意に優れていることが示された。
関連論文リスト
- Improved Contextual Recognition In Automatic Speech Recognition Systems
By Semantic Lattice Rescoring [4.819085609772069]
本稿では,意味的格子処理によるASRシステム内における文脈認識の高度化のための新しい手法を提案する。
提案手法は,隠れマルコフモデルとガウス混合モデル(HMM-GMM)とディープニューラルネットワーク(DNN)モデルを用いて,精度を向上する。
本稿では,実験分析によるLibriSpeechデータセット上でのフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2023-10-14T23:16:05Z) - Factually Consistent Summarization via Reinforcement Learning with
Textual Entailment Feedback [57.816210168909286]
我々は,この問題を抽象的な要約システムで解くために,テキストエンテーメントモデルの最近の進歩を活用している。
我々は、事実整合性を最適化するために、レファレンスフリーのテキストエンターメント報酬を用いた強化学習を用いる。
自動測定と人的評価の両結果から,提案手法は生成した要約の忠実さ,サリエンス,簡潔さを著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-05-31T21:04:04Z) - $\textit{latent}$-GLAT: Glancing at Latent Variables for Parallel Text
Generation [65.29170569821093]
並列テキスト生成は、ジェネレーション効率の成功により、広く注目を集めています。
本稿では,単語分類情報を取得するために,離散潜在変数を用いた$textitlatent$-GLATを提案する。
実験結果から,本手法は自己回帰モデルを用いることなく,強いベースラインを達成できることが示唆された。
論文 参考訳(メタデータ) (2022-04-05T07:34:12Z) - Reinforced Generative Adversarial Network for Abstractive Text
Summarization [7.507096634112164]
シーケンス・ツー・シーケンス・モデルは、生成的要約に対する実行可能な新しいアプローチを提供する。
これらのモデルには3つの欠点がある: 原文の詳細の把握はしばしば不正確なものであり、そのようなモデルによって生成されたテキストは繰り返しとなることが多い。
本稿では,強化学習と敵対的生成ネットワークを組み合わせた新しいアーキテクチャを提案し,シーケンス・ツー・シーケンス・アテンション・モデルを提案する。
論文 参考訳(メタデータ) (2021-05-31T17:34:47Z) - Non-Autoregressive Text Generation with Pre-trained Language Models [40.50508206201288]
BERTはNAGモデルのバックボーンとして利用でき、性能を大幅に向上できることを示す。
バニラNAGモデルの2つの共通問題を緩和するメカニズムを考案する。
本稿では,出力長を事前に推定できる新しいデコード戦略である ratio-first を提案する。
論文 参考訳(メタデータ) (2021-02-16T15:30:33Z) - Robust Dialogue Utterance Rewriting as Sequence Tagging [62.12912805378693]
対話書き換えの課題は,対話コンテキストから欠落した内容をコピーし,最新の対話発話を再構築することにある。
これまで、このタスクの既存のモデルは堅牢性の問題、すなわち、異なるドメインでテストする場合のパフォーマンスは劇的に低下します。
本研究では,探索空間を大幅に縮小する新しいシーケンスタグ型流束モデルを提案する。
論文 参考訳(メタデータ) (2020-12-29T00:05:35Z) - Controllable Text Simplification with Explicit Paraphrasing [88.02804405275785]
テキストの単純化は、語彙パラフレーズ、削除、分割など、いくつかの書き換え変換を通じて文の可読性を向上させる。
現在の単純化システムは、主にシーケンス・ツー・シーケンスのモデルであり、これらすべての操作を同時に実行するためにエンドツーエンドで訓練されている。
そこで我々は,言語的に動機づけられた規則を用いて分割と削除を行い,それらをニューラルパラフレーズモデルと組み合わせて様々な書き直しスタイルを創出するハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T13:44:40Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Improving Adversarial Text Generation by Modeling the Distant Future [155.83051741029732]
テキスト計画手法を考察し、上記の問題を緩和するためのモデルに基づく模倣学習手法を提案する。
本稿では,より長い地平線上の生成過程に焦点をあてる新しいガイドネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-04T05:45:13Z) - Learning a Simple and Effective Model for Multi-turn Response Generation
with Auxiliary Tasks [22.585901751927995]
オープンドメイン対話のためのマルチターン応答生成について検討する。
本研究では,単純な構造を持ちながら,会話コンテキストを効果的に活用できるモデルを提案する。
論文 参考訳(メタデータ) (2020-04-04T16:37:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。