論文の概要: SciSummPip: An Unsupervised Scientific Paper Summarization Pipeline
- arxiv url: http://arxiv.org/abs/2010.09190v1
- Date: Mon, 19 Oct 2020 03:29:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 21:40:07.765258
- Title: SciSummPip: An Unsupervised Scientific Paper Summarization Pipeline
- Title(参考訳): SciSummPip: 教師なしの科学論文要約パイプライン
- Authors: Jiaxin Ju, Ming Liu, Longxiang Gao and Shirui Pan
- Abstract要約: SummPipに触発されたテキスト要約システムSciSummPipについて述べる(Zhao et al., 2020)。
我々のSciSummPipには、文脈文表現のためのトランスフォーマーベースの言語モデルSciBERTが含まれている。
我々の研究は、コンテンツ選択と要約長制約が科学領域に適応するために適用されるという点において、以前の方法と異なる。
- 参考スコア(独自算出の注目度): 39.46301416663324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Scholarly Document Processing (SDP) workshop is to encourage more efforts
on natural language understanding of scientific task. It contains three shared
tasks and we participate in the LongSumm shared task. In this paper, we
describe our text summarization system, SciSummPip, inspired by SummPip (Zhao
et al., 2020) that is an unsupervised text summarization system for
multi-document in news domain. Our SciSummPip includes a transformer-based
language model SciBERT (Beltagy et al., 2019) for contextual sentence
representation, content selection with PageRank (Page et al., 1999), sentence
graph construction with both deep and linguistic information, sentence graph
clustering and within-graph summary generation. Our work differs from previous
method in that content selection and a summary length constraint is applied to
adapt to the scientific domain. The experiment results on both training dataset
and blind test dataset show the effectiveness of our method, and we empirically
verify the robustness of modules used in SciSummPip with BERTScore (Zhang et
al., 2019a).
- Abstract(参考訳): 学術文書処理(sdp)ワークショップは、科学的タスクの自然言語理解へのさらなる取り組みを促すことを目的としている。
それは3つの共有タスクを含み、LongSumm共有タスクに参加します。
本稿では,ニュース領域におけるマルチドキュメントのための教師なしテキスト要約システムである,summpip(zhao et al., 2020)に触発されたテキスト要約システムscisummpipについて述べる。
我々のSciSummPipには、文脈表現のためのトランスフォーマーベース言語モデルSciBERT(Beltagy et al., 2019)、PageRank(Page et al., 1999)によるコンテンツ選択、深層情報と言語情報の両方を用いた文グラフ構築、文グラフクラスタリング、グラフ内要約生成が含まれている。
本研究は,コンテンツ選択において従来の手法と異なり,科学的領域に適応するために要約長制約を適用した。
学習データセットとブラインドテストデータセットの両方における実験結果は,提案手法の有効性を示し,scisummpipとbertscore(zhang et al., 2019a)を用いたモジュールのロバスト性を検証する。
関連論文リスト
- Integrating Planning into Single-Turn Long-Form Text Generation [66.08871753377055]
長文コンテンツを生成するための計画案を提案する。
私たちの主な新規性は、複数のプロンプトや計画のラウンドを必要としない単一の補助的なタスクにあります。
実験では,LLMを補助タスクで微調整し,高品質な文書を生成する,異なる領域からの2つのデータセットを実証した。
論文 参考訳(メタデータ) (2024-10-08T17:02:40Z) - Write Summary Step-by-Step: A Pilot Study of Stepwise Summarization [48.57273563299046]
本稿では,新たな文書が提案されるたびに追加の要約を生成するステップワイド要約の課題を提案する。
追加された要約は、新たに追加されたコンテンツを要約するだけでなく、以前の要約と一貫性を持たなければならない。
SSGは,自動計測と人的評価の両面から,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-06-08T05:37:26Z) - Classification and Clustering of Sentence-Level Embeddings of Scientific Articles Generated by Contrastive Learning [1.104960878651584]
提案手法は,科学論文から文レベルの埋め込みを生成するための微調整変換言語モデルで構成されている。
対照的な学習で3つのデータセットでモデルをトレーニングしました。
比較学習と下流タスクへの埋め込みを併用した微調整文変換器は,学術論文における文分類への実現可能なアプローチであることを示す。
論文 参考訳(メタデータ) (2024-03-30T02:52:14Z) - Lay Text Summarisation Using Natural Language Processing: A Narrative
Literature Review [1.8899300124593648]
本研究の目的は, テキスト要約の手法を記述し, 比較することである。
私たちは82の記事をスクリーニングし、同じデータセットを使用して2020年から2021年の間に8つの関連論文を公開しました。
ハイブリッドアプローチにおける抽出的および抽象的要約法の組み合わせが最も有効であることが判明した。
論文 参考訳(メタデータ) (2023-03-24T18:30:50Z) - Summ^N: A Multi-Stage Summarization Framework for Long Input Dialogues
and Documents [13.755637074366813]
SummNは、典型的な事前訓練されたLMの最大文脈長よりも長いテキストを入力するための、シンプルで柔軟で効果的な多段階フレームワークである。
LMコンテキストサイズを固定したままステージ数を調整することで任意の長さの入力テキストを処理できる。
実験の結果,SummNは従来の最先端手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-10-16T06:19:54Z) - KnowGraph@IITK at SemEval-2021 Task 11: Building KnowledgeGraph for NLP
Research [2.1012672709024294]
自然言語処理文献を用いた研究論文貢献型知識グラフ作成システムを開発する。
提案システムは対象領域に依存せず,任意の領域の知識グラフ構築に利用することができる。
終末パイプラインテスト,句抽出テスト,三重項抽出テストでは,F1スコアが0.38,0.63,0.76となった。
論文 参考訳(メタデータ) (2021-04-04T14:33:21Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - SummPip: Unsupervised Multi-Document Summarization with Sentence Graph
Compression [61.97200991151141]
SummPipはマルチドキュメント要約のための教師なしの手法である。
元の文書を文グラフに変換し、言語表現と深層表現の両方を考慮に入れます。
次に、スペクトルクラスタリングを適用して複数の文のクラスタを取得し、最後に各クラスタを圧縮して最終的な要約を生成する。
論文 参考訳(メタデータ) (2020-07-17T13:01:15Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。