論文の概要: Combination of abstractive and extractive approaches for summarization
of long scientific texts
- arxiv url: http://arxiv.org/abs/2006.05354v2
- Date: Fri, 12 Jun 2020 11:25:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 14:53:46.969615
- Title: Combination of abstractive and extractive approaches for summarization
of long scientific texts
- Title(参考訳): 長い科学的テキストの要約のための抽象的アプローチと抽出的アプローチの組み合わせ
- Authors: Vladislav Tretyak, Denis Stepanov
- Abstract要約: 本稿では,抽出的手法と抽象的手法の両方を用いて,長い科学的文書の要約を生成する手法を提案する。
抽出モデルと抽象モデルとを併用することにより,要約結果とROUGEスコアが有意に向上することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In this research work, we present a method to generate summaries of long
scientific documents that uses the advantages of both extractive and
abstractive approaches. Before producing a summary in an abstractive manner, we
perform the extractive step, which then is used for conditioning the abstractor
module. We used pre-trained transformer-based language models, for both
extractor and abstractor. Our experiments showed that using extractive and
abstractive models jointly significantly improves summarization results and
ROUGE scores.
- Abstract(参考訳): 本研究では,抽出的手法と抽象的手法の両方の利点を利用した,長い科学的文書の要約を生成する手法を提案する。
抽象的な方法で要約を作成する前に、抽出ステップを実行し、それを抽象モジュールの条件付けに使用する。
抽出器と抽象化器の両方に,事前学習したトランスフォーマティブ言語モデルを用いた。
実験の結果,抽出モデルと抽象モデルの組み合わせにより,要約結果とルージュスコアが有意に向上した。
関連論文リスト
- Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs [70.15262704746378]
我々は,5つの公開データセットと自然言語ユーザフィードバックのためのコヒーレントな要約からなる,体系的に作成された人間アノテーションデータセットを提案する。
Falcon-40BとLlama-2-13Bによる予備的な実験では、コヒーレントなサマリーを生成するという点で大幅な性能向上(10%ルージュ-L)が見られた。
論文 参考訳(メタデータ) (2024-07-05T20:25:04Z) - Improving Factuality of Abstractive Summarization via Contrastive Reward
Learning [77.07192378869776]
本稿では,報酬学習と実効性指標の最近の発展を取り入れた,シンプルだが効果的なコントラスト学習フレームワークを提案する。
実証的研究により,提案手法により,実測値のフィードバックから要約モデルを学習できることが実証された。
論文 参考訳(メタデータ) (2023-07-10T12:01:18Z) - Salience Allocation as Guidance for Abstractive Summarization [61.31826412150143]
本稿では, サリエンセ・サリエンス・ガイダンス(SEASON, SaliencE Allocation as Guidance for Abstractive SummarizatiON)を用いた新しい要約手法を提案する。
SEASONは、サリエンス予測の割り当てを利用して抽象的な要約を導き、異なる抽象性のある記事に順応する。
論文 参考訳(メタデータ) (2022-10-22T02:13:44Z) - Improving Multi-Document Summarization through Referenced Flexible
Extraction with Credit-Awareness [21.037841262371355]
MDS(Multi-Document Summarization)における注目すべき課題は、入力の非常に長い長さである。
本稿では,この問題を克服するための抽出・抽出・吸収変換器フレームワークを提案する。
擬似抽出オラクルにない文の不等式の重要性をモデルに認識させる損失重み付け機構を提案する。
論文 参考訳(メタデータ) (2022-05-04T04:40:39Z) - Mitigating Data Scarceness through Data Synthesis, Augmentation and
Curriculum for Abstractive Summarization [0.685316573653194]
本稿では, パラフレージングを用いたデータ合成手法, サンプルミキシングによるデータ拡張手法, および特異性と抽象性に基づく2つの新しい難易度指標を用いたカリキュラム学習を紹介する。
これら3つの手法が2つの要約モデルと2つの異なるデータセットの抽象的な要約を改善することに役立つことを示す実験を行った。
論文 参考訳(メタデータ) (2021-09-17T14:31:08Z) - To Point or Not to Point: Understanding How Abstractive Summarizers
Paraphrase Text [4.4044968357361745]
本稿では、Seeなどのポインタジェネレータモデルである1つの一般的な抽象モデルが、その抽象レベルを制御するために、その明示的なコピー/ジェネレータスイッチを使用していることを特徴付ける。
コピー/ジェネレーションスイッチを変更してモデルを強制すると、実際の不正確さと幻覚とともに単純な神経能力のみが明らかになる。
これらの結果から,抽象的要約モデルには,抽象的かつ忠実なパラフレーズを生成するために必要な意味的理解が欠如していることが示唆された。
論文 参考訳(メタデータ) (2021-06-03T04:03:15Z) - EASE: Extractive-Abstractive Summarization with Explanations [18.046254486733186]
情報ボトルネック原理に基づく説明可能な要約システムを提案する。
人間が長い文書をまとめるために2段階の枠組みを使用するという以前の研究に触発されて、私たちのフレームワークは最初に説明として事前に定義された証拠の量を抽出します。
生成した要約の質を著しく犠牲にすることなく、我々のフレームワークからの説明は単純なベースラインよりも適切であることを示す。
論文 参考訳(メタデータ) (2021-05-14T17:45:06Z) - Constrained Abstractive Summarization: Preserving Factual Consistency
with Constrained Generation [93.87095877617968]
本稿では,抽象要約の現実的一貫性を保ちつつ,制約付き抽象要約(CAS)を提案する。
我々は、CASを満たすために、一般的に自己回帰生成モデルに適用される語彙制約付き復号法を採用する。
対話的要約において1つの手動制約のみを使用する場合、最大13.8ROUGE-2ゲインを観測する。
論文 参考訳(メタデータ) (2020-10-24T00:27:44Z) - Topic-Guided Abstractive Text Summarization: a Joint Learning Approach [19.623946402970933]
本稿では,抽象テキスト要約のための新しいアプローチ,トピックガイドによる抽象要約を提案する。
ニューラルネットワークをTransformerベースのシーケンス・ツー・シーケンス(seq2seq)モデルに結合学習フレームワークに組み込むことが目的だ。
論文 参考訳(メタデータ) (2020-10-20T14:45:25Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - At Which Level Should We Extract? An Empirical Analysis on Extractive
Document Summarization [110.54963847339775]
本研究は,全文を抽出する際,不必要な問題や冗長性が存在することを示す。
選挙区解析木に基づくサブセグメント単位の抽出を提案する。
論文 参考訳(メタデータ) (2020-04-06T13:35:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。