論文の概要: A Neural Conversation Generation Model via Equivalent Shared Memory
Investigation
- arxiv url: http://arxiv.org/abs/2108.09164v1
- Date: Fri, 20 Aug 2021 13:20:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-23 16:57:12.425751
- Title: A Neural Conversation Generation Model via Equivalent Shared Memory
Investigation
- Title(参考訳): 等価共有メモリを用いたニューラル会話生成モデル
- Authors: Changzhen Ji, Yating Zhang, Xiaozhong Liu, Adam Jatowt, Changlong Sun,
Conghui Zhu and Tiejun Zhao
- Abstract要約: DRMN(Deep Reading Memory Network)と呼ばれる新しい読み書き・記憶フレームワークを提案する。
DRMNは、発話生成を改善するために、類似した会話の有用な情報を記憶することができる。
弊社のモデルは、正義とeコマースの2つの大規模な会話データセットに適用する。
- 参考スコア(独自算出の注目度): 39.922967513749654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversation generation as a challenging task in Natural Language Generation
(NLG) has been increasingly attracting attention over the last years. A number
of recent works adopted sequence-to-sequence structures along with external
knowledge, which successfully enhanced the quality of generated conversations.
Nevertheless, few works utilized the knowledge extracted from similar
conversations for utterance generation. Taking conversations in customer
service and court debate domains as examples, it is evident that essential
entities/phrases, as well as their associated logic and inter-relationships can
be extracted and borrowed from similar conversation instances. Such information
could provide useful signals for improving conversation generation. In this
paper, we propose a novel reading and memory framework called Deep Reading
Memory Network (DRMN) which is capable of remembering useful information of
similar conversations for improving utterance generation. We apply our model to
two large-scale conversation datasets of justice and e-commerce fields.
Experiments prove that the proposed model outperforms the state-of-the-art
approaches.
- Abstract(参考訳): 自然言語生成(NLG)における課題としての会話生成は,近年ますます注目を集めている。
最近の多くの作品では、外部知識とともにシーケンスからシーケンスへの構造を採用しており、それによって生成された会話の品質が向上した。
にもかかわらず、類似した会話から抽出された知識を発話生成に利用した作品はほとんどない。
顧客サービスや法廷の議論領域での会話を例として、本質的なエンティティやフレーズ、関連するロジックや相互関係を抽出し、類似の会話インスタンスから借用できることは明らかである。
このような情報は会話生成を改善するのに役立つ。
本稿では,類似した会話の有用な情報を記憶し,発話生成を改善するための新しい読解・記憶フレームワークであるdeep reading memory network(drmn)を提案する。
弊社のモデルは、正義とeコマースの2つの大規模な会話データセットに適用する。
実験により、提案したモデルが最先端のアプローチより優れていることが証明された。
関連論文リスト
- AutoConv: Automatically Generating Information-seeking Conversations
with Large Language Models [74.10293412011455]
合成会話生成のためのAutoConvを提案する。
具体的には,会話生成問題を言語モデリングタスクとして定式化する。
我々は、情報探索プロセスの特徴を捉えるために、人間同士の会話でLLMを微調整する。
論文 参考訳(メタデータ) (2023-08-12T08:52:40Z) - History-Aware Hierarchical Transformer for Multi-session Open-domain
Dialogue System [59.78425104243993]
マルチセッションオープンドメイン対話のための履歴認識階層変換器(HAHT)を提案する。
HAHTは歴史会話の長期記憶を維持し、歴史情報を利用して現在の会話状況を理解する。
大規模マルチセッション会話データセットの実験結果は,提案したHAHTモデルがベースラインモデルより一貫して優れていることを示唆している。
論文 参考訳(メタデータ) (2023-02-02T06:54:33Z) - Knowledge-Grounded Conversational Data Augmentation with Generative
Conversational Networks [76.11480953550013]
生成会話ネットワークを用いて会話データを自動的に生成する。
我々は、Topical Chatデータセット上で、知識のない会話に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-22T22:37:14Z) - Conversational speech recognition leveraging effective fusion methods
for cross-utterance language modeling [12.153618111267514]
音声認識における言語モデリングのための異種会話履歴融合手法を提案する。
現在の発話の音響埋め込みとそれに対応する会話履歴のセマンティックコンテンツとを融合して利用する新しい音声融合機構が導入された。
我々は,ASR N-best仮説再構成タスクを予測問題として,象徴的な事前学習型LMであるBERTを活用する。
論文 参考訳(メタデータ) (2021-11-05T09:07:23Z) - A Speaker-aware Parallel Hierarchical Attentive Encoder-Decoder Model
for Multi-turn Dialogue Generation [13.820298189734686]
本稿では,マルチターン会話における話者の区別を強調するオープンドメイン対話生成モデルを提案する。
実験の結果,PHAEDは自動評価と人的評価の両面で最先端の成績を示した。
論文 参考訳(メタデータ) (2021-10-13T16:08:29Z) - Summary Grounded Conversation Generation [10.470157142861174]
入力として会話の要約だけを考えると、事前学習された言語モデルがどのように会話全体を生成できるかを示す。
また,会話要約データセットを生成された会話で拡張することにより,会話要約の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-06-07T04:46:31Z) - Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension [49.92173751203827]
マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
論文 参考訳(メタデータ) (2020-12-14T10:58:01Z) - Cross Copy Network for Dialogue Generation [44.593899479668416]
本稿では,現在の対話コンテキストと類似の対話インスタンスの論理構造を同時に探索する新しいネットワークアーキテクチャであるCross Copy Networks(CCN)を提案する。
裁判所の議論と顧客サービスコンテンツ生成という2つの課題による実験により,提案アルゴリズムは既存の最先端コンテンツ生成モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-22T09:03:23Z) - Ranking Enhanced Dialogue Generation [77.8321855074999]
対話履歴を効果的に活用する方法は、マルチターン対話生成において重要な問題である。
これまでの研究は通常、歴史をモデル化するために様々なニューラルネットワークアーキテクチャを使用していた。
本稿では,ランキング拡張対話生成フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-13T01:49:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。