論文の概要: SciBERTSUM: Extractive Summarization for Scientific Documents
- arxiv url: http://arxiv.org/abs/2201.08495v1
- Date: Fri, 21 Jan 2022 00:29:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 20:31:21.951627
- Title: SciBERTSUM: Extractive Summarization for Scientific Documents
- Title(参考訳): SciBERTSUM:科学文献の抽出要約
- Authors: Athar Sefid, C Lee Giles
- Abstract要約: SciBERTSUMは500以上の文からなる科学論文のような長い文書の要約のために設計されている。
その結果,ROUGEスコアの点から,モデルの優位性を示した。
- 参考スコア(独自算出の注目度): 16.801859298078334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The summarization literature focuses on the summarization of news articles.
The news articles in the CNN-DailyMail are relatively short documents with
about 30 sentences per document on average. We introduce SciBERTSUM, our
summarization framework designed for the summarization of long documents like
scientific papers with more than 500 sentences. SciBERTSUM extends BERTSUM to
long documents by 1) adding a section embedding layer to include section
information in the sentence vector and 2) applying a sparse attention mechanism
where each sentences will attend locally to nearby sentences and only a small
number of sentences attend globally to all other sentences. We used slides
generated by the authors of scientific papers as reference summaries since they
contain the technical details from the paper. The results show the superiority
of our model in terms of ROUGE scores.
- Abstract(参考訳): 要約文献はニュース記事の要約に焦点を当てている。
cnn-dailymailのニュース記事は比較的短い文書で、1文書あたり平均約30文である。
我々は,500文以上の長文文書を要約するために設計された要約フレームワークであるscibertsumを紹介する。
SciBERtsuMはBERtsuMを長いドキュメントに拡張する
1) 文ベクトルにセクション情報を含むようにセクション埋め込み層を追加し、
2) 各文が近傍の文に局所的に出席し,一部の文が世界規模で他の文にのみ参加する,まばらな注意機構を適用する。
論文の技術的詳細を含むため,学術論文の著者が作成したスライドを参考要約として使用した。
その結果,ROUGEスコアの点から,モデルの優位性を示した。
関連論文リスト
- On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - Scientific Paper Extractive Summarization Enhanced by Citation Graphs [50.19266650000948]
我々は、引用グラフを活用して、異なる設定下での科学的論文の抽出要約を改善することに重点を置いている。
予備的な結果は、単純な教師なしフレームワークであっても、引用グラフが有用であることを示している。
そこで我々は,大規模ラベル付きデータが利用可能である場合のタスクにおいて,より正確な結果を得るために,グラフベースのスーパービジョン・サムライゼーション・モデル(GSS)を提案する。
論文 参考訳(メタデータ) (2022-12-08T11:53:12Z) - GoSum: Extractive Summarization of Long Documents by Reinforcement
Learning and Graph Organized discourse state [6.4805900740861]
長文要約のための強化学習に基づく抽出モデルであるGoSumを提案する。
GoSumは入力文書ごとに異なる談話レベルから異質なグラフを構築することで状態をエンコードする。
論文要約の2つのデータセット,PubMed と arXiv のモデルを評価する。
論文 参考訳(メタデータ) (2022-11-18T14:07:29Z) - TSTR: Too Short to Represent, Summarize with Details! Intro-Guided
Extended Summary Generation [22.738731393540633]
学術文献など、原文が比較的長い領域では、そのような要約は一般的で粗い概観を超越することはできない。
本稿では,文書の紹介情報を利用した抽出要約器TSTRを提案する。
論文 参考訳(メタデータ) (2022-06-02T02:45:31Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - Enhancing Scientific Papers Summarization with Citation Graph [78.65955304229863]
引用グラフを用いて科学論文の要約作業を再定義します。
我々は,141kの研究論文を異なる領域に格納した,新しい科学論文要約データセットセマンティックスタディネットワーク(ssn)を構築した。
我々のモデルは、事前訓練されたモデルと比較して競争性能を達成することができる。
論文 参考訳(メタデータ) (2021-04-07T11:13:35Z) - On Generating Extended Summaries of Long Documents [16.149617108647707]
本稿では,長論文の拡張要約を生成する新しい手法を提案する。
本手法は,文書の階層構造を利用して抽出要約モデルに組み込む。
分析の結果,提案手法は,要約文に好適な抽出確率分布を調整できることが示唆された。
論文 参考訳(メタデータ) (2020-12-28T08:10:28Z) - Extractive Summarizer for Scholarly Articles [3.420774720158862]
本モデルは,論文の著者が提示したプレゼンテーションスライドをゴールド・サマリー・スタンダードとして使用し,文のラベル付けを行う。
ウィンドウベースの文抽出ラベリングにより,少なくとも4つのROUGE1-リコール点の改善が得られた。
論文 参考訳(メタデータ) (2020-08-25T22:08:34Z) - Understanding Points of Correspondence between Sentences for Abstractive
Summarization [39.7404761923196]
本稿では,文書から引き出された文の融合について,対応点の概念を導入して検討する。
我々は、文書、ソースおよび融合文、および文間の対応点の人間のアノテーションを含むデータセットを作成する。
論文 参考訳(メタデータ) (2020-06-10T02:42:38Z) - From Standard Summarization to New Tasks and Beyond: Summarization with
Manifold Information [77.89755281215079]
テキスト要約は、原文書の短く凝縮した版を作成することを目的とした研究分野である。
現実世界のアプリケーションでは、ほとんどのデータは平易なテキスト形式ではない。
本稿では,現実のアプリケーションにおけるこれらの新しい要約タスクとアプローチについて調査する。
論文 参考訳(メタデータ) (2020-05-10T14:59:36Z) - Screenplay Summarization Using Latent Narrative Structure [78.45316339164133]
本稿では,物語の基盤となる構造を一般教師なし・教師付き抽出要約モデルに明示的に組み込むことを提案する。
重要な物語イベント(転回点)の観点で物語構造を定式化し、脚本を要約するために潜伏状態として扱う。
シーンレベルの要約ラベルを付加したテレビ画面のCSIコーパスの実験結果から,潜角点がCSIエピソードの重要な側面と相関していることが判明した。
論文 参考訳(メタデータ) (2020-04-27T11:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。