論文の概要: Transductive Learning for Abstractive News Summarization
- arxiv url: http://arxiv.org/abs/2104.09500v1
- Date: Sat, 17 Apr 2021 17:33:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 08:26:20.548572
- Title: Transductive Learning for Abstractive News Summarization
- Title(参考訳): 要約ニュース要約のためのトランスダクティブ学習
- Authors: Arthur Bra\v{z}inskas, Mengwen Liu, Ramesh Nallapati, Sujith Ravi,
Markus Dreyer
- Abstract要約: トランスダクティブラーニングの要約への最初の適用を提案する。
このアプローチはCNN/DMおよびNYTデータセットに最先端の結果をもたらすことを示しています。
- 参考スコア(独自算出の注目度): 24.03781438153328
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pre-trained language models have recently advanced abstractive summarization.
These models are further fine-tuned on human-written references before summary
generation in test time. In this work, we propose the first application of
transductive learning to summarization. In this paradigm, a model can learn
from the test set's input before inference. To perform transduction, we propose
to utilize input document summarizing sentences to construct references for
learning in test time. These sentences are often compressed and fused to form
abstractive summaries and provide omitted details and additional context to the
reader. We show that our approach yields state-of-the-art results on CNN/DM and
NYT datasets. For instance, we achieve over 1 ROUGE-L point improvement on
CNN/DM. Further, we show the benefits of transduction from older to more recent
news. Finally, through human and automatic evaluation, we show that our
summaries become more abstractive and coherent.
- Abstract(参考訳): 事前訓練された言語モデルは近年抽象的な要約が進んでいる。
これらのモデルは、テスト時間で要約を生成する前に、人間による参照に基づいてさらに微調整される。
本稿では,帰納的学習の要約への最初の応用を提案する。
このパラダイムでは、モデルは推論の前にテストセットの入力から学ぶことができる。
翻訳を行うために,文を要約した入力文書を用いて,テスト時の学習のための参照を構築することを提案する。
これらの文はしばしば圧縮され、融合されて抽象的な要約を形成し、省略された詳細と追加の文脈を読者に提供する。
提案手法は,CNN/DMおよびNYTデータセットの最先端結果が得られることを示す。
例えば、CNN/DMで1 ROUGE-Lの点数を改善する。
さらに,より古いニュースから最近のニュースへのトランスダクションの利点を示す。
最後に,人間的および自動的な評価を通じて,要約がより抽象的で一貫性のあるものになることを示す。
関連論文リスト
- StreamHover: Livestream Transcript Summarization and Annotation [54.41877742041611]
ライブストリームの書き起こしを注釈付けして要約するフレームワークであるStreamHoverを紹介します。
合計500時間以上のビデオに抽出的要約と抽象的要約を併用したベンチマークデータセットは,既存の注釈付きコーパスよりもはるかに大きい。
我々のモデルはより一般化され、強力なベースラインよりも性能が向上することを示す。
論文 参考訳(メタデータ) (2021-09-11T02:19:37Z) - ARMAN: Pre-training with Semantically Selecting and Reordering of
Sentences for Persian Abstractive Summarization [7.16879432974126]
本稿では,トランスフォーマーをベースとしたエンコーダデコーダモデルARMANを提案する。
ARMANでは、修正されたセマンティックスコアに基づいて文書からの有能な文が選択され、擬似要約を形成する。
提案手法は,ROUGEとBERTScoreで計測された6つの要約タスクに対して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-09-09T08:35:39Z) - The Summary Loop: Learning to Write Abstractive Summaries Without
Examples [21.85348918324668]
本研究は,与えられた長さ制約に対するカバレッジとフラエンシの組み合わせを最大化することに基づく,教師なし抽象的要約に対する新しいアプローチを提案する。
主要な用語は元のドキュメントから隠蔽され、現在の生成された要約を使ってカバレッジモデルで満たされなければならない。
一般的なニュース要約データセットでテストすると、従来の教師なし手法よりも2R-1ポイント以上性能が向上する。
論文 参考訳(メタデータ) (2021-05-11T23:19:46Z) - Automated News Summarization Using Transformers [4.932130498861987]
我々は,テキスト要約のためのトランスフォーマーアーキテクチャに基づく事前学習モデルについて,包括的に比較する。
分析と比較のために,要約や人為的な要約に使用できるテキストデータを含むBBCニュースデータセットを用いた。
論文 参考訳(メタデータ) (2021-04-23T04:22:33Z) - Unsupervised Extractive Summarization by Pre-training Hierarchical
Transformers [107.12125265675483]
教師なし抽出文書要約は、訓練中にラベル付き要約を用いることなく、文書から重要な文章を選択することを目的としている。
既存の手法は主にグラフベースで、文をノードとして、エッジの重みは文の類似性によって測定される。
教師なし抽出要約のための文のランク付けにはトランスフォーマーの注意が利用できることがわかった。
論文 参考訳(メタデータ) (2020-10-16T08:44:09Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Exploring Explainable Selection to Control Abstractive Summarization [51.74889133688111]
説明可能性を重視した新しいフレームワークを開発する。
新しいペアワイズ行列は、文の相互作用、中心性、属性スコアをキャプチャする。
コンストラクタ内の文分割アテンション機構は、最終要約が所望のコンテンツを強調することを保証する。
論文 参考訳(メタデータ) (2020-04-24T14:39:34Z) - Unsupervised Opinion Summarization with Noising and Denoising [85.49169453434554]
ユーザレビューのコーパスから合成データセットを作成し、レビューをサンプリングし、要約のふりをして、ノイズのあるバージョンを生成します。
テスト時に、モデルは本物のレビューを受け入れ、健全な意見を含む要約を生成し、合意に達しないものをノイズとして扱います。
論文 参考訳(メタデータ) (2020-04-21T16:54:57Z) - Pre-training for Abstractive Document Summarization by Reinstating
Source Text [105.77348528847337]
本稿では,Seq2Seqに基づく非ラベルテキストによる抽象要約モデルの事前学習を可能にする3つの事前学習目標を提案する。
2つのベンチマーク要約データセットの実験では、3つの目的がすべてベースラインでパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2020-04-04T05:06:26Z) - Learning by Semantic Similarity Makes Abstractive Summarization Better [13.324006587838522]
近年のLM, BART, およびベンチマークデータセットCNN/DMの参照要約を比較した。
興味深いことに、モデル生成サマリーは参照サマリーと比較して高いスコアを受け取る。
論文 参考訳(メタデータ) (2020-02-18T17:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。