論文の概要: Document-Level Abstractive Summarization
- arxiv url: http://arxiv.org/abs/2212.03013v1
- Date: Tue, 6 Dec 2022 14:39:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 17:27:49.618606
- Title: Document-Level Abstractive Summarization
- Title(参考訳): 文書レベル抽象要約
- Authors: Gon\c{c}alo Raposo and Afonso Raposo and Ana Sofia Carmo
- Abstract要約: 非常に長いテキストの自動要約を改善するために,トランスフォーマー技術がいかに効果的かを検討する。
より小さなチャンクを処理して文書全体の要約を生成するコストを削減できる新しい検索強化手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of automatic text summarization produces a concise and fluent text
summary while preserving key information and overall meaning. Recent approaches
to document-level summarization have seen significant improvements in recent
years by using models based on the Transformer architecture. However, the
quadratic memory and time complexities with respect to the sequence length make
them very expensive to use, especially with long sequences, as required by
document-level summarization. Our work addresses the problem of document-level
summarization by studying how efficient Transformer techniques can be used to
improve the automatic summarization of very long texts. In particular, we will
use the arXiv dataset, consisting of several scientific papers and the
corresponding abstracts, as baselines for this work. Then, we propose a novel
retrieval-enhanced approach based on the architecture which reduces the cost of
generating a summary of the entire document by processing smaller chunks. The
results were below the baselines but suggest a more efficient memory a
consumption and truthfulness.
- Abstract(参考訳): 自動テキスト要約のタスクは、キー情報と全体的な意味を保ちながら、簡潔で簡潔なテキスト要約を生成する。
文書レベルの要約に対する最近のアプローチは、トランスフォーマーアーキテクチャに基づいたモデルを使用することで、近年大幅に改善されている。
しかし、二次記憶とシーケンス長に関する時間の複雑さは、文書レベルの要約に必要となるような、特に長いシーケンスで使用するのに非常に費用がかかる。
本研究は,非常に長いテキストの自動要約を改善するために,トランスフォーマー技術がいかに効率的に利用できるかを検討することで,文書レベルの要約の問題に対処する。
特に、いくつかの科学論文とそれに対応する抽象資料からなるarXivデータセットを、この研究のベースラインとして使用します。
そこで本研究では,より小さなチャンクを処理することにより,全文書の要約作成コストを削減できるアーキテクチャに基づく検索エンハンスド手法を提案する。
結果はベースラインを下回っていたが、より効率的なメモリ消費と真実性が示唆された。
関連論文リスト
- Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - Summ^N: A Multi-Stage Summarization Framework for Long Input Dialogues
and Documents [13.755637074366813]
SummNは、典型的な事前訓練されたLMの最大文脈長よりも長いテキストを入力するための、シンプルで柔軟で効果的な多段階フレームワークである。
LMコンテキストサイズを固定したままステージ数を調整することで任意の長さの入力テキストを処理できる。
実験の結果,SummNは従来の最先端手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-10-16T06:19:54Z) - HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text
Extractive Summarization [57.798070356553936]
HETFORMERはトランスフォーマーをベースとした事前学習モデルであり、抽出要約のための多粒度スパースアテンションを持つ。
単一文書と複数文書の要約タスクの実験から,HETFORMERがルージュF1の最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2021-10-12T22:42:31Z) - Document-Level Text Simplification: Dataset, Criteria and Baseline [75.58761130635824]
文書レベルのテキスト単純化の新しいタスクを定義し,検討する。
Wikipediaダンプに基づいて、我々はまずD-Wikipediaという大規模なデータセットを構築した。
本稿では,文書レベルの単純化作業に適したD-SARIと呼ばれる新しい自動評価指標を提案する。
論文 参考訳(メタデータ) (2021-10-11T08:15:31Z) - Automated News Summarization Using Transformers [4.932130498861987]
我々は,テキスト要約のためのトランスフォーマーアーキテクチャに基づく事前学習モデルについて,包括的に比較する。
分析と比較のために,要約や人為的な要約に使用できるテキストデータを含むBBCニュースデータセットを用いた。
論文 参考訳(メタデータ) (2021-04-23T04:22:33Z) - On Generating Extended Summaries of Long Documents [16.149617108647707]
本稿では,長論文の拡張要約を生成する新しい手法を提案する。
本手法は,文書の階層構造を利用して抽出要約モデルに組み込む。
分析の結果,提案手法は,要約文に好適な抽出確率分布を調整できることが示唆された。
論文 参考訳(メタデータ) (2020-12-28T08:10:28Z) - Partially-Aligned Data-to-Text Generation with Distant Supervision [69.15410325679635]
我々はPADTG(Partially-Aligned Data-to-Text Generation)と呼ばれる新しい生成タスクを提案する。
自動的にアノテートされたデータをトレーニングに利用し、アプリケーションドメインを大幅に拡張するため、より実用的です。
我々のフレームワークは、全てのベースラインモデルより優れており、部分整合データの利用の可能性を検証する。
論文 参考訳(メタデータ) (2020-10-03T03:18:52Z) - Leveraging Graph to Improve Abstractive Multi-Document Summarization [50.62418656177642]
我々は、文書のよく知られたグラフ表現を活用することができる、抽象的多文書要約(MDS)モデルを開発する。
本モデルでは,長い文書の要約に欠かせない文書間関係を捉えるために,文書の符号化にグラフを利用する。
また,このモデルでは,要約生成プロセスの導出にグラフを利用することが可能であり,一貫性と簡潔な要約を生成するのに有用である。
論文 参考訳(メタデータ) (2020-05-20T13:39:47Z) - A Divide-and-Conquer Approach to the Summarization of Long Documents [4.863209463405628]
本稿では,長い文書のニューラル・サマライゼーションのための分割・畳み込み手法を提案する。
本手法は文書の談話構造を利用して,文の類似性を利用して問題をより小さな要約問題に分割する。
本稿では,シーケンス・ツー・シーケンスのRNNやトランスフォーマーなど,様々な要約モデルと組み合わせることで,要約性能の向上が期待できることを示す。
論文 参考訳(メタデータ) (2020-04-13T20:38:49Z) - Pre-training for Abstractive Document Summarization by Reinstating
Source Text [105.77348528847337]
本稿では,Seq2Seqに基づく非ラベルテキストによる抽象要約モデルの事前学習を可能にする3つの事前学習目標を提案する。
2つのベンチマーク要約データセットの実験では、3つの目的がすべてベースラインでパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2020-04-04T05:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。