論文の概要: Leveraging Information Bottleneck for Scientific Document Summarization
- arxiv url: http://arxiv.org/abs/2110.01280v1
- Date: Mon, 4 Oct 2021 09:43:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:37:24.917349
- Title: Leveraging Information Bottleneck for Scientific Document Summarization
- Title(参考訳): 科学的文書要約のための情報基盤の活用
- Authors: Jiaxin Ju, Ming Liu, Huan Yee Koh, Yuan Jin, Lan Du and Shirui Pan
- Abstract要約: 本稿では,科学的長期文書を要約するための教師なし抽出手法を提案する。
文圧縮にInformation Bottleneckの原理を用いた以前の研究に触発され、文書レベルの要約に拡張する。
- 参考スコア(独自算出の注目度): 26.214930773343887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an unsupervised extractive approach to summarize
scientific long documents based on the Information Bottleneck principle.
Inspired by previous work which uses the Information Bottleneck principle for
sentence compression, we extend it to document level summarization with two
separate steps. In the first step, we use signal(s) as queries to retrieve the
key content from the source document. Then, a pre-trained language model
conducts further sentence search and edit to return the final extracted
summaries. Importantly, our work can be flexibly extended to a multi-view
framework by different signals. Automatic evaluation on three scientific
document datasets verifies the effectiveness of the proposed framework. The
further human evaluation suggests that the extracted summaries cover more
content aspects than previous systems.
- Abstract(参考訳): 本稿では,情報ボトルネック原理に基づく科学的長文要約のための教師なし抽出手法を提案する。
文圧縮にInformation Bottleneck原則を用いた以前の研究に触発され、2つのステップで文書レベルの要約に拡張する。
最初のステップでは、signal(s)をクエリとして使用して、ソースドキュメントから重要なコンテンツを取得する。
そして、事前訓練された言語モデルにより、さらに文検索と編集を行い、最終的な抽出した要約を返す。
重要なことは、異なる信号で柔軟にマルチビューフレームワークに拡張できるということです。
3つの科学文書データセットの自動評価は、提案手法の有効性を検証する。
さらに人間による評価から,抽出された要約は,従来のシステムよりも多くの内容をカバーすることが示唆された。
関連論文リスト
- Absformer: Transformer-based Model for Unsupervised Multi-Document
Abstractive Summarization [1.066048003460524]
MDS(Multi-document summarization)とは、複数の文書のテキストを簡潔な要約に要約する作業である。
抽象MDSは、自然言語生成技術を用いて、複数の文書の一貫性と流動性を備えた要約を生成することを目的としている。
本稿では、教師なし抽象要約生成のためのトランスフォーマーに基づく新しい手法であるAbsformerを提案する。
論文 参考訳(メタデータ) (2023-06-07T21:18:23Z) - ReSel: N-ary Relation Extraction from Scientific Text and Tables by
Learning to Retrieve and Select [53.071352033539526]
学術論文からN-ary関係を抽出する問題について考察する。
提案手法であるReSelは,このタスクを2段階のプロシージャに分解する。
3つの科学的情報抽出データセットに対する実験により、ReSelは最先端のベースラインを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-10-26T02:28:02Z) - TRIE++: Towards End-to-End Information Extraction from Visually Rich
Documents [51.744527199305445]
本稿では,視覚的にリッチな文書からエンド・ツー・エンドの情報抽出フレームワークを提案する。
テキスト読み出しと情報抽出は、よく設計されたマルチモーダルコンテキストブロックを介して互いに強化することができる。
フレームワークはエンドツーエンドのトレーニング可能な方法でトレーニングでき、グローバルな最適化が達成できる。
論文 参考訳(メタデータ) (2022-07-14T08:52:07Z) - ACM -- Attribute Conditioning for Abstractive Multi Document
Summarization [0.0]
本稿では,属性条件付きモジュールを組み込んだモデルを提案する。
このアプローチは、ベースラインのマルチドキュメント要約アプローチよりもROUGEスコアが大きく向上することを示している。
論文 参考訳(メタデータ) (2022-05-09T00:00:14Z) - Modeling Endorsement for Multi-Document Abstractive Summarization [10.166639983949887]
単一文書の要約と多文書の要約の重大な違いは、文書の中で健全なコンテンツがどのように現れるかである。
本稿では,複数文書要約における文書間補完効果とその活用をモデル化する。
提案手法は各文書から合成を生成し,他の文書から有意な内容を識別する支援者として機能する。
論文 参考訳(メタデータ) (2021-10-15T03:55:42Z) - Text Summarization with Latent Queries [60.468323530248945]
本稿では,LaQSumについて紹介する。LaQSumは,既存の問合せ形式と抽象的な要約のための文書から遅延クエリを学習する,最初の統一テキスト要約システムである。
本システムでは, 潜伏クエリモデルと条件付き言語モデルとを協調的に最適化し, ユーザがテスト時に任意のタイプのクエリをプラグイン・アンド・プレイできるようにする。
本システムでは,クエリタイプ,文書設定,ターゲットドメインの異なる要約ベンチマークにおいて,強力な比較システムの性能を強く向上させる。
論文 参考訳(メタデータ) (2021-05-31T21:14:58Z) - EASE: Extractive-Abstractive Summarization with Explanations [18.046254486733186]
情報ボトルネック原理に基づく説明可能な要約システムを提案する。
人間が長い文書をまとめるために2段階の枠組みを使用するという以前の研究に触発されて、私たちのフレームワークは最初に説明として事前に定義された証拠の量を抽出します。
生成した要約の質を著しく犠牲にすることなく、我々のフレームワークからの説明は単純なベースラインよりも適切であることを示す。
論文 参考訳(メタデータ) (2021-05-14T17:45:06Z) - Hierarchical Bi-Directional Self-Attention Networks for Paper Review
Rating Recommendation [81.55533657694016]
本稿では,階層型双方向自己注意ネットワークフレームワーク(HabNet)を提案する。
具体的には、文エンコーダ(レベル1)、レビュー内エンコーダ(レベル2)、レビュー間エンコーダ(レベル3)の3つのレベルで、論文レビューの階層構造を利用する。
我々は、最終的な受理決定を行う上で有用な予測者を特定することができ、また、数値的なレビュー評価とレビュアーが伝えるテキストの感情の不整合を発見するのに役立てることができる。
論文 参考訳(メタデータ) (2020-11-02T08:07:50Z) - Topic-Guided Abstractive Text Summarization: a Joint Learning Approach [19.623946402970933]
本稿では,抽象テキスト要約のための新しいアプローチ,トピックガイドによる抽象要約を提案する。
ニューラルネットワークをTransformerベースのシーケンス・ツー・シーケンス(seq2seq)モデルに結合学習フレームワークに組み込むことが目的だ。
論文 参考訳(メタデータ) (2020-10-20T14:45:25Z) - SummPip: Unsupervised Multi-Document Summarization with Sentence Graph
Compression [61.97200991151141]
SummPipはマルチドキュメント要約のための教師なしの手法である。
元の文書を文グラフに変換し、言語表現と深層表現の両方を考慮に入れます。
次に、スペクトルクラスタリングを適用して複数の文のクラスタを取得し、最後に各クラスタを圧縮して最終的な要約を生成する。
論文 参考訳(メタデータ) (2020-07-17T13:01:15Z) - Pre-training for Abstractive Document Summarization by Reinstating
Source Text [105.77348528847337]
本稿では,Seq2Seqに基づく非ラベルテキストによる抽象要約モデルの事前学習を可能にする3つの事前学習目標を提案する。
2つのベンチマーク要約データセットの実験では、3つの目的がすべてベースラインでパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2020-04-04T05:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。