論文の概要: Lay Text Summarisation Using Natural Language Processing: A Narrative
Literature Review
- arxiv url: http://arxiv.org/abs/2303.14222v1
- Date: Fri, 24 Mar 2023 18:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 21:15:39.301669
- Title: Lay Text Summarisation Using Natural Language Processing: A Narrative
Literature Review
- Title(参考訳): 自然言語処理を用いたレイテキスト要約 : 物語的文献レビュー
- Authors: Oliver Vinzelberg, Mark David Jenkins, Gordon Morison, David McMinn
and Zoe Tieges
- Abstract要約: 本研究の目的は, テキスト要約の手法を記述し, 比較することである。
私たちは82の記事をスクリーニングし、同じデータセットを使用して2020年から2021年の間に8つの関連論文を公開しました。
ハイブリッドアプローチにおける抽出的および抽象的要約法の組み合わせが最も有効であることが判明した。
- 参考スコア(独自算出の注目度): 1.8899300124593648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Summarisation of research results in plain language is crucial for promoting
public understanding of research findings. The use of Natural Language
Processing to generate lay summaries has the potential to relieve researchers'
workload and bridge the gap between science and society. The aim of this
narrative literature review is to describe and compare the different text
summarisation approaches used to generate lay summaries. We searched the
databases Web of Science, Google Scholar, IEEE Xplore, Association for
Computing Machinery Digital Library and arXiv for articles published until 6
May 2022. We included original studies on automatic text summarisation methods
to generate lay summaries. We screened 82 articles and included eight relevant
papers published between 2020 and 2021, all using the same dataset. The results
show that transformer-based methods such as Bidirectional Encoder
Representations from Transformers (BERT) and Pre-training with Extracted
Gap-sentences for Abstractive Summarization (PEGASUS) dominate the landscape of
lay text summarisation, with all but one study using these methods. A
combination of extractive and abstractive summarisation methods in a hybrid
approach was found to be most effective. Furthermore, pre-processing approaches
to input text (e.g. applying extractive summarisation) or determining which
sections of a text to include, appear critical. Evaluation metrics such as
Recall-Oriented Understudy for Gisting Evaluation (ROUGE) were used, which do
not consider readability. To conclude, automatic lay text summarisation is
under-explored. Future research should consider long document lay text
summarisation, including clinical trial reports, and the development of
evaluation metrics that consider readability of the lay summary.
- Abstract(参考訳): 研究成果の要約は,研究成果の公開理解を促進するために重要である。
自然言語処理による素な要約の生成は、研究者の作業負荷を軽減し、科学と社会の間のギャップを埋める可能性を秘めている。
この物語文学レビューの目的は、平文要約を生成するのに使われる異なるテキスト要約アプローチを記述・比較することである。
Web of Science、Google Scholar、IEEE Xplore、Association for Computing Machinery Digital Library、arXivといったデータベースを2022年5月6日まで検索しました。
要約文生成のためのテキスト自動要約手法に関する独自の研究も含んでいる。
82の記事をスクリーニングし、2020年から2021年にかけて発行された8つの関連論文を含む。
その結果,変換器からの双方向エンコーダ表現 (BERT) や抽象要約のための抽出ギャップ文による事前学習 (PEGASUS) といった変換器を用いた手法が,テキスト要約のランドスケープを支配していることがわかった。
ハイブリッドアプローチにおける抽出的および抽象的要約法の組み合わせが最も有効であることが判明した。
さらに、入力テキストへの前処理アプローチ(例:抽出要約の適用)や、テキストのどのセクションを含めるかの決定が重要になる。
可読性を考慮していない,リコール指向のgisting evaluation (rouge) のための評価指標が用いられた。
結論として、自動的なテキスト要約は未探索である。
今後の研究では,臨床試験報告を含む長期文書の要約と,要約の可読性を考慮した評価指標の開発を検討すべきである。
関連論文リスト
- Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs [70.15262704746378]
我々は,5つの公開データセットと自然言語ユーザフィードバックのためのコヒーレントな要約からなる,体系的に作成された人間アノテーションデータセットを提案する。
Falcon-40BとLlama-2-13Bによる予備的な実験では、コヒーレントなサマリーを生成するという点で大幅な性能向上(10%ルージュ-L)が見られた。
論文 参考訳(メタデータ) (2024-07-05T20:25:04Z) - Source Identification in Abstractive Summarization [0.8883733362171033]
生成された要約文に必須情報を含む入力文を$textitsource文として定義し、ソース文を解析して抽象的な要約がどのように作られるかを研究する。
我々は,複数の手法を比較し,タスクの強いベースラインを確立するために,自動ソース文検出を定式化する。
実験結果から, パープレキシティに基づく手法は, 比較的抽象的条件下では良好に動作し, 類似性に基づく手法は比較的抽出的条件下では頑健であることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:09:09Z) - Incremental Extractive Opinion Summarization Using Cover Trees [81.59625423421355]
オンラインマーケットプレースでは、ユーザレビューは時間とともに蓄積され、意見要約を定期的に更新する必要がある。
本研究では,漸進的な環境下での抽出的意見要約の課題について検討する。
本稿では,CentroidRankの要約をインクリメンタルな設定で正確に計算するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-16T02:00:17Z) - AugSumm: towards generalizable speech summarization using synthetic
labels from large language model [61.73741195292997]
抽象音声要約(SSUM)は、音声から人間に似た要約を生成することを目的としている。
従来のSSUMモデルは、主に、人間による注釈付き決定論的要約(英語版)を用いて訓練され、評価されている。
AugSummは,人間のアノテータが拡張要約を生成するためのプロキシとして,大規模言語モデル(LLM)を利用する手法である。
論文 参考訳(メタデータ) (2024-01-10T18:39:46Z) - On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - A Survey on Neural Abstractive Summarization Methods and Factual
Consistency of Summarization [18.763290930749235]
要約は、サブセット(要約)を作成するために、テキストデータの集合を計算的に短縮する過程である
既存の要約法は、抽出法と抽象法という2つのタイプに大別できる。
抽出要約器は、ソース文書からテキストスニペットを明示的に選択し、抽象要約器は、ソースで広く普及している最も健全な概念を伝えるために、新しいテキストスニペットを生成する。
論文 参考訳(メタデータ) (2022-04-20T14:56:36Z) - Automatic Text Summarization Methods: A Comprehensive Review [1.6114012813668934]
本研究は,要約手法,使用する手法,標準データセット,評価指標,今後の研究範囲などのテキスト要約概念を詳細に分析する。
論文 参考訳(メタデータ) (2022-03-03T10:45:00Z) - Automated News Summarization Using Transformers [4.932130498861987]
我々は,テキスト要約のためのトランスフォーマーアーキテクチャに基づく事前学習モデルについて,包括的に比較する。
分析と比較のために,要約や人為的な要約に使用できるテキストデータを含むBBCニュースデータセットを用いた。
論文 参考訳(メタデータ) (2021-04-23T04:22:33Z) - Topic-Centric Unsupervised Multi-Document Summarization of Scientific
and News Articles [3.0504782036247438]
本稿では,トピック中心のマルチドキュメント要約フレームワークを提案し,抽象的な要約を生成する。
提案アルゴリズムは,有能な言語単位選択とテキスト生成技術を開発することにより,抽象的な要約を生成する。
提案手法は,自動抽出評価指標を用いて評価した場合の最先端技術と一致し,人間の5つの評価指標の抽象的要約に優れる。
論文 参考訳(メタデータ) (2020-11-03T04:04:21Z) - From Standard Summarization to New Tasks and Beyond: Summarization with
Manifold Information [77.89755281215079]
テキスト要約は、原文書の短く凝縮した版を作成することを目的とした研究分野である。
現実世界のアプリケーションでは、ほとんどのデータは平易なテキスト形式ではない。
本稿では,現実のアプリケーションにおけるこれらの新しい要約タスクとアプローチについて調査する。
論文 参考訳(メタデータ) (2020-05-10T14:59:36Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。