論文の概要: EDU-level Extractive Summarization with Varying Summary Lengths
- arxiv url: http://arxiv.org/abs/2210.04029v1
- Date: Sat, 8 Oct 2022 14:09:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 16:37:07.612607
- Title: EDU-level Extractive Summarization with Varying Summary Lengths
- Title(参考訳): 可変要約長を用いたEDUレベルの抽出要約
- Authors: Yuping Wu, Ching-Hsun Tseng, Jiayu Shang, Shengzhong Mao, Goran
Nenadic, Xiao-Jun Zeng
- Abstract要約: 本稿では,EDUと文に基づくモデルの性能の上限を比較するために,オラクル分析を実施している。
本稿では,このEDUのメリットを考慮し,Varying summary Lengths (EDU-VL) を用いたEDUレベルの抽出モデルを提案し,それに対応する学習アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 11.617377170925895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Extractive models usually formulate text summarization as extracting top-k
important sentences from document as summary. Few work exploited extracting
finer-grained Elementary Discourse Unit (EDU) and there is little analysis and
justification for the extractive unit selection. To fill such a gap, this paper
firstly conducts oracle analysis to compare the upper bound of performance for
models based on EDUs and sentences. The analysis provides evidences from both
theoretical and experimental perspectives to justify that EDUs make more
concise and precise summary than sentences without losing salient information.
Then, considering this merit of EDUs, this paper further proposes EDU-level
extractive model with Varying summary Lengths (EDU-VL) and develops the
corresponding learning algorithm. EDU-VL learns to encode and predict
probabilities of EDUs in document, and encode EDU-level candidate summaries
with different lengths based on various $k$ values and select the best
candidate summary in an end-to-end training manner. Finally, the proposed and
developed approach is experimented on single and multi-document benchmark
datasets and shows the improved performances in comparison with the
state-of-the-art models.
- Abstract(参考訳): 抽出モデルは通常、文書からトップk重要文を要約としてテキスト要約を定式化する。
細粒度初等談話単位(edu)の抽出を悪用する作業は少なく,抽出単位の選択に関する分析や正当化は少ない。
このようなギャップを埋めるために,本稿ではまずオラクル分析を行い,EDUと文に基づくモデルの性能の上限を比較する。
この分析は、EDUが有能な情報を失うことなく文よりも簡潔で正確な要約を行うことを正当化するために、理論的および実験的な観点から証拠を提供する。
そして,このEDUのメリットを考慮し,Varying summary Lengths(EDU-VL)を用いたEDUレベルの抽出モデルを提案し,それに対応する学習アルゴリズムを開発した。
EDU-VLは文書中のEDUの確率をエンコードし予測し、様々な$k$値に基づいて異なる長さのEDUレベルの候補要約をエンコードし、エンドツーエンドのトレーニング方法で最適な候補要約を選択する。
最後に,提案手法を単文書および複数文書のベンチマークデータセットで実験し,最新モデルとの比較により性能が向上したことを示す。
関連論文リスト
- Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs [70.15262704746378]
我々は,5つの公開データセットと自然言語ユーザフィードバックのためのコヒーレントな要約からなる,体系的に作成された人間アノテーションデータセットを提案する。
Falcon-40BとLlama-2-13Bによる予備的な実験では、コヒーレントなサマリーを生成するという点で大幅な性能向上(10%ルージュ-L)が見られた。
論文 参考訳(メタデータ) (2024-07-05T20:25:04Z) - Write Summary Step-by-Step: A Pilot Study of Stepwise Summarization [48.57273563299046]
本稿では,新たな文書が提案されるたびに追加の要約を生成するステップワイド要約の課題を提案する。
追加された要約は、新たに追加されたコンテンツを要約するだけでなく、以前の要約と一貫性を持たなければならない。
SSGは,自動計測と人的評価の両面から,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-06-08T05:37:26Z) - Fine-Grained Natural Language Inference Based Faithfulness Evaluation
for Diverse Summarisation Tasks [14.319567507959759]
既成の自然言語推論(NLI)モデルを用いた要約忠実度の評価手法について検討した。
InFusEという新しい手法を提案する。これは、変数の前提サイズを使い、要約文を短い仮説に単純化する。
論文 参考訳(メタデータ) (2024-02-27T15:57:11Z) - Do-GOOD: Towards Distribution Shift Evaluation for Pre-Trained Visual
Document Understanding Models [68.12229916000584]
本研究では,文書画像関連タスクの微粒化解析のためのDO-GOOD(Out-of-distriion)ベンチマークを開発した。
次に、ロバスト性を評価し、5つの最新のVDU事前学習モデルと2つの典型的なOOD一般化アルゴリズムのきめ細かい解析を行う。
論文 参考訳(メタデータ) (2023-06-05T06:50:42Z) - Full-Text Argumentation Mining on Scientific Publications [3.8754200816873787]
フルテキストSAMに対してADURとAREを組み合わせた逐次パイプラインモデルを提案する。
両サブタスクにおける事前学習言語モデル(PLM)の性能について,最初の解析を行った。
本稿では,非連続型ADUと談話コネクタの解釈が重要な課題であることを示す。
論文 参考訳(メタデータ) (2022-10-24T10:05:30Z) - ACM -- Attribute Conditioning for Abstractive Multi Document
Summarization [0.0]
本稿では,属性条件付きモジュールを組み込んだモデルを提案する。
このアプローチは、ベースラインのマルチドキュメント要約アプローチよりもROUGEスコアが大きく向上することを示している。
論文 参考訳(メタデータ) (2022-05-09T00:00:14Z) - Transductive Learning for Abstractive News Summarization [24.03781438153328]
トランスダクティブラーニングの要約への最初の適用を提案する。
このアプローチはCNN/DMおよびNYTデータセットに最先端の結果をもたらすことを示しています。
論文 参考訳(メタデータ) (2021-04-17T17:33:12Z) - SupMMD: A Sentence Importance Model for Extractive Summarization using
Maximum Mean Discrepancy [92.5683788430012]
SupMMDは、カーネルの2サンプルテストと最大の相違点に基づく、ジェネリックおよび更新の要約のための新しいテクニックである。
DUC-2004 および TAC-2009 データセット上での現在の技術状況を満たしたり超えたりすることで,SupMMD の総合的および更新的要約タスクにおける有効性を示す。
論文 参考訳(メタデータ) (2020-10-06T09:26:55Z) - Entity and Evidence Guided Relation Extraction for DocRED [33.69481141963074]
この課題に対して,共同トレーニングフレームワークE2GRE(Entity and Evidence Guided Relation extract)を提案する。
事前訓練された言語モデル(例えばBERT, RoBERTa)への入力としてエンティティ誘導シーケンスを導入する。
これらのエンティティ誘導シーケンスは、事前訓練された言語モデル(LM)がエンティティに関連するドキュメントの領域に集中するのに役立ちます。
我々は最近リリースされた関係抽出のための大規模データセットDocREDに対するE2GREアプローチを評価した。
論文 参考訳(メタデータ) (2020-08-27T17:41:23Z) - Leveraging Graph to Improve Abstractive Multi-Document Summarization [50.62418656177642]
我々は、文書のよく知られたグラフ表現を活用することができる、抽象的多文書要約(MDS)モデルを開発する。
本モデルでは,長い文書の要約に欠かせない文書間関係を捉えるために,文書の符号化にグラフを利用する。
また,このモデルでは,要約生成プロセスの導出にグラフを利用することが可能であり,一貫性と簡潔な要約を生成するのに有用である。
論文 参考訳(メタデータ) (2020-05-20T13:39:47Z) - Pre-training for Abstractive Document Summarization by Reinstating
Source Text [105.77348528847337]
本稿では,Seq2Seqに基づく非ラベルテキストによる抽象要約モデルの事前学習を可能にする3つの事前学習目標を提案する。
2つのベンチマーク要約データセットの実験では、3つの目的がすべてベースラインでパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2020-04-04T05:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。