論文の概要: Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization
- arxiv url: http://arxiv.org/abs/2010.01672v1
- Date: Sun, 4 Oct 2020 20:12:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 03:50:00.195304
- Title: Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization
- Title(参考訳): 対話要約のための対話構造を有する多視点シーケンス対シーケンスモデル
- Authors: Jiaao Chen, Diyi Yang
- Abstract要約: テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
- 参考スコア(独自算出の注目度): 72.54873655114844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text summarization is one of the most challenging and interesting problems in
NLP. Although much attention has been paid to summarizing structured text like
news reports or encyclopedia articles, summarizing conversations---an essential
part of human-human/machine interaction where most important pieces of
information are scattered across various utterances of different
speakers---remains relatively under-investigated. This work proposes a
multi-view sequence-to-sequence model by first extracting conversational
structures of unstructured daily chats from different views to represent
conversations and then utilizing a multi-view decoder to incorporate different
views to generate dialogue summaries. Experiments on a large-scale dialogue
summarization corpus demonstrated that our methods significantly outperformed
previous state-of-the-art models via both automatic evaluations and human
judgment. We also discussed specific challenges that current approaches faced
with this task. We have publicly released our code at
https://github.com/GT-SALT/Multi-View-Seq2Seq.
- Abstract(参考訳): テキスト要約はnlpで最も挑戦的で興味深い問題の1つです。
ニュースや百科事典などの構造化テキストの要約には多くの注意が払われているが、会話の要約は人間と機械の相互作用の重要な部分であり、最も重要な情報が様々な話者の発話に散らばっている。
本研究は,まず異なる視点から非構造化日々チャットの会話構造を抽出し,対話を表現し,その後にマルチビューデコーダを用いて異なる視点を取り込んで対話要約を生成するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両方により,従来の最先端モデルよりも有意に優れていた。
我々はまた、このタスクで現在のアプローチが直面した特定の課題についても論じた。
私たちはコードをhttps://github.com/gt-salt/multi-view-seq2seqで公開しました。
関連論文リスト
- Multi-turn Dialogue Comprehension from a Topic-aware Perspective [70.37126956655985]
本稿では,話題認識の観点から,マルチターン対話をモデル化することを提案する。
対話文のセグメント化アルゴリズムを用いて、対話文を教師なしの方法でトピック集中フラグメントに分割する。
また,トピックセグメントを処理要素として扱う新しいモデルとして,トピック認識デュアルアテンションマッチング(TADAM)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T11:03:55Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - Who says like a style of Vitamin: Towards Syntax-Aware
DialogueSummarization using Multi-task Learning [2.251583286448503]
個々の話者からの発声と独特の統語構造との関係に焦点をあてる。
話者は、音声プリントのような言語情報を含むことができる独自のテキストスタイルを持つ。
構文認識情報と対話要約の両方をマルチタスクで学習する。
論文 参考訳(メタデータ) (2021-09-29T05:30:39Z) - Topic-Aware Contrastive Learning for Abstractive Dialogue Summarization [41.75442239197745]
本研究は,コヒーレンス検出とサブ・サブ・サブ・サブ・サブ・サブ・サブ・サブ・サブ・サミマリ・ジェネレーションという2つのトピック・アウェア・コントラスト学習目標を提案する。
ベンチマークデータセットの実験では、提案手法が強いベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2021-09-10T17:03:25Z) - Structure-Aware Abstractive Conversation Summarization via Discourse and
Action Graphs [22.58861442978803]
より正確で正確な会話要約のために、会話の豊富な構造を明示的にモデル化することを提案する。
発話とアクショントリプル間の会話関係を構造化されたグラフを通して表現し、会話をよりよくエンコードする。
実験により,提案したモデルは最先端の手法より優れ,他の領域でよく一般化されていることが示された。
論文 参考訳(メタデータ) (2021-04-16T23:04:52Z) - Unsupervised Summarization for Chat Logs with Topic-Oriented Ranking and
Context-Aware Auto-Encoders [59.038157066874255]
本稿では,手動ラベル付きデータを用いずにチャット要約を行うrankaeという新しいフレームワークを提案する。
RankAEは、中心性と多様性に応じてトピックの発話を同時に選択するトピック指向のランキング戦略で構成されています。
消音自動エンコーダは、選択された発話に基づいて簡潔でコンテキスト情報に基づいた要約を生成するように設計されています。
論文 参考訳(メタデータ) (2020-12-14T07:31:17Z) - Topic-Aware Multi-turn Dialogue Modeling [91.52820664879432]
本稿では,トピック認識発話を教師なしでセグメント化して抽出する,多元対話モデリングのための新しいソリューションを提案する。
トピック・アウェア・モデリングは、新たに提案されたトピック・アウェア・セグメンテーション・アルゴリズムとトピック・アウェア・デュアル・アテンション・マッチング(TADAM)ネットワークによって実現されている。
論文 参考訳(メタデータ) (2020-09-26T08:43:06Z) - Diversifying Dialogue Generation with Non-Conversational Text [38.03510529185192]
非会話的テキストを活用することで対話生成を多様化する新しい視点を提案する。
我々は、フォーラムコメント、イディオム、本スニペットを含む複数の情報源から、大規模な非会話コーパスを収集する。
得られたモデルは、2つの会話データセット上でテストされ、コンテキストとの関連性を犠牲にすることなく、はるかに多様な応答を生成することが示されている。
論文 参考訳(メタデータ) (2020-05-09T02:16:05Z) - The Shmoop Corpus: A Dataset of Stories with Loosely Aligned Summaries [72.48439126769627]
個々の章ごとに詳細なマルチパラグラフの要約と組み合わせた231ストーリーのデータセットであるShmoop Corpusを紹介します。
コーパスから、クローズ形式の質問応答や抽象的要約の簡易な形式を含む共通のNLPタスクのセットを構築する。
このコーパスのユニークな構造は、マシンストーリーの理解をより親しみやすいものにするための重要な基盤となると信じている。
論文 参考訳(メタデータ) (2019-12-30T21:03:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。