論文の概要: EmailSum: Abstractive Email Thread Summarization
- arxiv url: http://arxiv.org/abs/2107.14691v1
- Date: Fri, 30 Jul 2021 15:13:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-02 13:11:17.396176
- Title: EmailSum: Abstractive Email Thread Summarization
- Title(参考訳): emailsum: 抽象電子メールスレッドの要約
- Authors: Shiyue Zhang, Asli Celikyilmaz, Jianfeng Gao, Mohit Bansal
- Abstract要約: 我々は,メールスレッド要約(EmailSum)データセットを抽象化的に開発する。
このデータセットには、人間による注釈付きショート(30ワード)と、2549のメールスレッドからなるロング(100ワード)のサマリーが含まれている。
本研究は,現在の抽象的要約モデルの課題を明らかにするものである。
- 参考スコア(独自算出の注目度): 105.46012304024312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have brought about an interest in the challenging task of
summarizing conversation threads (meetings, online discussions, etc.). Such
summaries help analysis of the long text to quickly catch up with the decisions
made and thus improve our work or communication efficiency. To spur research in
thread summarization, we have developed an abstractive Email Thread
Summarization (EmailSum) dataset, which contains human-annotated short (<30
words) and long (<100 words) summaries of 2549 email threads (each containing 3
to 10 emails) over a wide variety of topics. We perform a comprehensive
empirical study to explore different summarization techniques (including
extractive and abstractive methods, single-document and hierarchical models, as
well as transfer and semisupervised learning) and conduct human evaluations on
both short and long summary generation tasks. Our results reveal the key
challenges of current abstractive summarization models in this task, such as
understanding the sender's intent and identifying the roles of sender and
receiver. Furthermore, we find that widely used automatic evaluation metrics
(ROUGE, BERTScore) are weakly correlated with human judgments on this email
thread summarization task. Hence, we emphasize the importance of human
evaluation and the development of better metrics by the community. Our code and
summary data have been made available at:
https://github.com/ZhangShiyue/EmailSum
- Abstract(参考訳): 近年,会話スレッド(食事,オンラインディスカッションなど)の要約という課題への関心が高まっている。
このような要約は、長いテキストの分析に役立ち、意思決定を素早く追いつき、作業やコミュニケーションの効率を向上します。
スレッド要約の研究を助長するために,多種多様なトピックに対して2549個のメールスレッド(それぞれ3~10個のメールを含む)からなる,人間の注釈付き短文(<30語)と長文(<100語)の要約を含む抽象的メールスレッド要約(EmailSum)データセットを開発した。
我々は,抽出・抽象的手法,単一文書・階層モデル,伝達・半教師あり学習など,様々な要約手法を探索し,短短・長短の要約生成タスクで人的評価を行うための総合的な実証的研究を行った。
提案手法では,送信者の意図を理解し,送信者と受信者の役割を識別するなど,現在の抽象要約モデルの課題を明らかにする。
さらに,このメールスレッド要約タスクにおいて,広範に使用されている自動評価指標(ROUGE,BERTScore)が人間の判断と弱い相関があることが判明した。
そこで我々は,人的評価の重要性と,コミュニティによるより良い指標の開発を強調した。
私たちのコードと要約データは、https://github.com/zhangshiyue/emailsumで入手できます。
関連論文リスト
- On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - Summarization with Graphical Elements [55.5913491389047]
本稿では,グラフィカル要素による要約という新しい課題を提案する。
タスクの研究を支援するために,高品質なラベル付きデータセットを収集する。
論文 参考訳(メタデータ) (2022-04-15T17:16:41Z) - Automatic Text Summarization Methods: A Comprehensive Review [1.6114012813668934]
本研究は,要約手法,使用する手法,標準データセット,評価指標,今後の研究範囲などのテキスト要約概念を詳細に分析する。
論文 参考訳(メタデータ) (2022-03-03T10:45:00Z) - AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer
Summarization [73.91543616777064]
Stack OverflowやYahoo!のようなコミュニティ質問回答(CQA)フォーラムには、幅広いコミュニティベースの質問に対する回答の豊富なリソースが含まれている。
回答の要約の1つのゴールは、回答の視点の範囲を反映した要約を作成することである。
本研究は,専門言語学者による解答要約のための4,631個のCQAスレッドからなる新しいデータセットを導入する。
論文 参考訳(メタデータ) (2021-11-11T21:48:02Z) - Neural Abstractive Unsupervised Summarization of Online News Discussions [1.2617078020344619]
本稿では,オンラインニュース討論の要約を抽象的に生成する新しい手法を提案する。
本モデルは,生成した要約とスレッド上の各コメントのROUGEスコアを用いて評価する。
論文 参考訳(メタデータ) (2021-06-07T20:33:51Z) - Summaformers @ LaySumm 20, LongSumm 20 [14.44754831438127]
本稿では,複数の領域から科学研究論文を要約する問題について考察する。
私たちはLaySummとLongSummという2種類の要約を区別します。
最新のTransformerベースのモデルを活用しながら、私たちのシステムはシンプルで直感的で、特定の紙セクションが人間の要約にどのように貢献するかに基づいています。
論文 参考訳(メタデータ) (2021-01-10T13:48:12Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - From Standard Summarization to New Tasks and Beyond: Summarization with
Manifold Information [77.89755281215079]
テキスト要約は、原文書の短く凝縮した版を作成することを目的とした研究分野である。
現実世界のアプリケーションでは、ほとんどのデータは平易なテキスト形式ではない。
本稿では,現実のアプリケーションにおけるこれらの新しい要約タスクとアプローチについて調査する。
論文 参考訳(メタデータ) (2020-05-10T14:59:36Z) - Intweetive Text Summarization [1.1565654851982567]
本稿では,公開図形E-Reputationを扱うマイクロブログ会話の要約を自動生成する手法を提案する。
これらの要約はキーワードクエリやサンプルツイートを使用して生成され、Micro-Blogネットワーク全体の集中ビューを提供する。
論文 参考訳(メタデータ) (2020-01-16T08:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。