論文の概要: Automated News Summarization Using Transformers
- arxiv url: http://arxiv.org/abs/2108.01064v1
- Date: Fri, 23 Apr 2021 04:22:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-02 14:51:45.693413
- Title: Automated News Summarization Using Transformers
- Title(参考訳): 変圧器を用いたニュース自動要約
- Authors: Anushka Gupta, Diksha Chugh, Anjum, Rahul Katarya
- Abstract要約: 我々は,テキスト要約のためのトランスフォーマーアーキテクチャに基づく事前学習モデルについて,包括的に比較する。
分析と比較のために,要約や人為的な要約に使用できるテキストデータを含むBBCニュースデータセットを用いた。
- 参考スコア(独自算出の注目度): 4.932130498861987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The amount of text data available online is increasing at a very fast pace
hence text summarization has become essential. Most of the modern recommender
and text classification systems require going through a huge amount of data.
Manually generating precise and fluent summaries of lengthy articles is a very
tiresome and time-consuming task. Hence generating automated summaries for the
data and using it to train machine learning models will make these models space
and time-efficient. Extractive summarization and abstractive summarization are
two separate methods of generating summaries. The extractive technique
identifies the relevant sentences from the original document and extracts only
those from the text. Whereas in abstractive summarization techniques, the
summary is generated after interpreting the original text, hence making it more
complicated. In this paper, we will be presenting a comprehensive comparison of
a few transformer architecture based pre-trained models for text summarization.
For analysis and comparison, we have used the BBC news dataset that contains
text data that can be used for summarization and human generated summaries for
evaluating and comparing the summaries generated by machine learning models.
- Abstract(参考訳): オンラインで利用可能なテキストデータの量は急速に増加しており、テキスト要約が不可欠になっている。
現代のレコメンデーターやテキスト分類システムのほとんどは、膨大な量のデータを必要とする。
手動で長い記事の正確で流動的な要約を生成するのは、非常に面倒で時間を要する作業です。
したがって、データの自動要約を生成して機械学習モデルをトレーニングすることで、これらのモデルが空間的かつ時間効率になる。
抽出要約と抽象要約は、要約を生成する2つの別々の方法である。
抽出技法は、原文書から関連文を特定し、テキストからのみ抽出する。
抽象要約技術では、要約は原文を解釈した後に生成されるため、より複雑になる。
本稿では,テキスト要約のためのいくつかのトランスフォーマティブアーキテクチャに基づく事前学習モデルの包括的比較を行う。
分析と比較には,要約に使用できるテキストデータを含むBBCニュースデータセットと,機械学習モデルによって生成された要約を評価・比較するための人為的な要約データを用いた。
関連論文リスト
- Improving Sequence-to-Sequence Models for Abstractive Text Summarization Using Meta Heuristic Approaches [0.0]
人間には抽象的な能力がある。
ニューラルネットワークの抽象的テキスト要約にSequence-to-Sequence(seq2seq)モデルを使用することは、流行まで上昇している。
本稿では,抽象的なテキスト要約のためのアーキテクチャとモデルを改良することを目的としている。
論文 参考訳(メタデータ) (2024-03-24T17:39:36Z) - Transformer Based Implementation for Automatic Book Summarization [0.0]
文書要約 (Document Summarization) とは、ある文書の意味的かつ簡潔な要約を生成する手順である。
この作業は、抽象生成にTransformerベースのテクニックを使用する試みである。
論文 参考訳(メタデータ) (2023-01-17T18:18:51Z) - Document-Level Abstractive Summarization [0.0]
非常に長いテキストの自動要約を改善するために,トランスフォーマー技術がいかに効果的かを検討する。
より小さなチャンクを処理して文書全体の要約を生成するコストを削減できる新しい検索強化手法を提案する。
論文 参考訳(メタデータ) (2022-12-06T14:39:09Z) - A Survey on Neural Abstractive Summarization Methods and Factual
Consistency of Summarization [18.763290930749235]
要約は、サブセット(要約)を作成するために、テキストデータの集合を計算的に短縮する過程である
既存の要約法は、抽出法と抽象法という2つのタイプに大別できる。
抽出要約器は、ソース文書からテキストスニペットを明示的に選択し、抽象要約器は、ソースで広く普及している最も健全な概念を伝えるために、新しいテキストスニペットを生成する。
論文 参考訳(メタデータ) (2022-04-20T14:56:36Z) - HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text
Extractive Summarization [57.798070356553936]
HETFORMERはトランスフォーマーをベースとした事前学習モデルであり、抽出要約のための多粒度スパースアテンションを持つ。
単一文書と複数文書の要約タスクの実験から,HETFORMERがルージュF1の最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2021-10-12T22:42:31Z) - Topic Modeling Based Extractive Text Summarization [0.0]
本稿では,潜在トピックに基づいて内容をクラスタリングすることで,テキストを要約する新しい手法を提案する。
我々は、テキスト要約へのアプローチにおいて、より使用量が少なく挑戦的なWikiHowデータセットを活用している。
論文 参考訳(メタデータ) (2021-06-29T12:28:19Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Screenplay Summarization Using Latent Narrative Structure [78.45316339164133]
本稿では,物語の基盤となる構造を一般教師なし・教師付き抽出要約モデルに明示的に組み込むことを提案する。
重要な物語イベント(転回点)の観点で物語構造を定式化し、脚本を要約するために潜伏状態として扱う。
シーンレベルの要約ラベルを付加したテレビ画面のCSIコーパスの実験結果から,潜角点がCSIエピソードの重要な側面と相関していることが判明した。
論文 参考訳(メタデータ) (2020-04-27T11:54:19Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z) - Pre-training for Abstractive Document Summarization by Reinstating
Source Text [105.77348528847337]
本稿では,Seq2Seqに基づく非ラベルテキストによる抽象要約モデルの事前学習を可能にする3つの事前学習目標を提案する。
2つのベンチマーク要約データセットの実験では、3つの目的がすべてベースラインでパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2020-04-04T05:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。