論文の概要: What Have We Achieved on Text Summarization?
- arxiv url: http://arxiv.org/abs/2010.04529v1
- Date: Fri, 9 Oct 2020 12:39:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 05:32:59.997042
- Title: What Have We Achieved on Text Summarization?
- Title(参考訳): テキスト要約で何を得たか?
- Authors: Dandan Huang, Leyang Cui, Sen Yang, Guangsheng Bao, Kun Wang, Jun Xie,
Yue Zhang
- Abstract要約: 我々は,要約システムの強みと細かな構文的・意味的レベルでの限界について,より理解を深めることを目指している。
手動で10の代表的な要約モデルに対して,8つの主要な誤り源を定量化する。
- 参考スコア(独自算出の注目度): 32.90169694110989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has led to significant improvement in text summarization with
various methods investigated and improved ROUGE scores reported over the years.
However, gaps still exist between summaries produced by automatic summarizers
and human professionals. Aiming to gain more understanding of summarization
systems with respect to their strengths and limits on a fine-grained syntactic
and semantic level, we consult the Multidimensional Quality Metric(MQM) and
quantify 8 major sources of errors on 10 representative summarization models
manually. Primarily, we find that 1) under similar settings, extractive
summarizers are in general better than their abstractive counterparts thanks to
strength in faithfulness and factual-consistency; 2) milestone techniques such
as copy, coverage and hybrid extractive/abstractive methods do bring specific
improvements but also demonstrate limitations; 3) pre-training techniques, and
in particular sequence-to-sequence pre-training, are highly effective for
improving text summarization, with BART giving the best results.
- Abstract(参考訳): 深層学習は、長年にわたって報告されたROUGEスコアを調査・改善し、テキスト要約を著しく改善した。
しかし、自動要約と人間専門家による要約の間にはギャップが残っている。
要約システムの強みと細かな構文・意味レベルでの限界についてより理解を深めるため,多次元品質基準(MQM)を参考にし,手動で10の代表的な要約モデル上で8つの主要な誤り源を定量化する。
主に、私たちはそれを見つけます。
1) 類似の条件下では,抽出要約器は,信頼度及び事実整合性の強さにより,抽象的要約器よりも一般的に優れている。
2)コピー,カバレッジ,ハイブリッド抽出/アブストレーションといったマイルストーン技術は,特定の改善をもたらすだけでなく,制限も示す。
3)事前学習技術,特にシーケンス・ツー・シーケンス事前学習は,テキスト要約の改善に極めて有効であり,BARTが最適である。
関連論文リスト
- Rank Your Summaries: Enhancing Bengali Text Summarization via
Ranking-based Approach [0.0]
本稿では,単純かつ効果的なランキングベースアプローチを用いて,与えられたテキストの最も正確かつ情報的な要約を特定することを目的とする。
事前学習した4つの要約モデルを用いて要約を生成し、次いでテキストランキングアルゴリズムを適用して最も適した要約を識別する。
実験結果から, 事前学習したトランスモデルの強度を利用して, ベンガル文字要約の精度と有効性を大幅に向上させることが示唆された。
論文 参考訳(メタデータ) (2023-07-14T15:07:20Z) - Factually Consistent Summarization via Reinforcement Learning with
Textual Entailment Feedback [57.816210168909286]
我々は,この問題を抽象的な要約システムで解くために,テキストエンテーメントモデルの最近の進歩を活用している。
我々は、事実整合性を最適化するために、レファレンスフリーのテキストエンターメント報酬を用いた強化学習を用いる。
自動測定と人的評価の両結果から,提案手法は生成した要約の忠実さ,サリエンス,簡潔さを著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-05-31T21:04:04Z) - Improving Factuality of Abstractive Summarization without Sacrificing
Summary Quality [27.57037141986362]
我々は,要約品質を犠牲にすることなく,要約事実性を改善するためのEFACTSUM(Effective Factual Summarization)を提案する。
比較学習フレームワークを改良した候補サマリーと組み合わせることで,実感と類似度に基づく測定値の両方が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-05-24T10:15:17Z) - Generating Multiple-Length Summaries via Reinforcement Learning for
Unsupervised Sentence Summarization [44.835811239393244]
文要約は、テキストの中核的な内容を維持しながら与えられたテキストを短縮する。
人書きの要約のないテキストを要約するために、教師なしのアプローチが研究されている。
本研究では, 基礎構造を含まない強化学習に基づく抽象モデルを提案する。
論文 参考訳(メタデータ) (2022-12-21T08:34:28Z) - Human-in-the-loop Abstractive Dialogue Summarization [61.4108097664697]
我々は、異なるレベルの人間のフィードバックをトレーニングプロセスに組み込むことを提案する。
これにより、モデルをガイドして、人間が要約に用いている振る舞いを捉えることができます。
論文 参考訳(メタデータ) (2022-12-19T19:11:27Z) - Salience Allocation as Guidance for Abstractive Summarization [61.31826412150143]
本稿では, サリエンセ・サリエンス・ガイダンス(SEASON, SaliencE Allocation as Guidance for Abstractive SummarizatiON)を用いた新しい要約手法を提案する。
SEASONは、サリエンス予測の割り当てを利用して抽象的な要約を導き、異なる抽象性のある記事に順応する。
論文 参考訳(メタデータ) (2022-10-22T02:13:44Z) - Meta-Transfer Learning for Low-Resource Abstractive Summarization [12.757403709439325]
Low-Resource Abstractive Summarizationは、過去の経験を活用して、ターゲットコーパスの限られたラベル付き例でパフォーマンスを向上させることを目的としています。
書体や書体が異なる様々な要約コーパスについて広範な実験を行った。
その結果,学習可能なパラメータの0.7%に留まらず,低リソースシナリオで6コーパスの最先端を実現することができた。
論文 参考訳(メタデータ) (2021-02-18T14:42:09Z) - Constrained Abstractive Summarization: Preserving Factual Consistency
with Constrained Generation [93.87095877617968]
本稿では,抽象要約の現実的一貫性を保ちつつ,制約付き抽象要約(CAS)を提案する。
我々は、CASを満たすために、一般的に自己回帰生成モデルに適用される語彙制約付き復号法を採用する。
対話的要約において1つの手動制約のみを使用する場合、最大13.8ROUGE-2ゲインを観測する。
論文 参考訳(メタデータ) (2020-10-24T00:27:44Z) - SupMMD: A Sentence Importance Model for Extractive Summarization using
Maximum Mean Discrepancy [92.5683788430012]
SupMMDは、カーネルの2サンプルテストと最大の相違点に基づく、ジェネリックおよび更新の要約のための新しいテクニックである。
DUC-2004 および TAC-2009 データセット上での現在の技術状況を満たしたり超えたりすることで,SupMMD の総合的および更新的要約タスクにおける有効性を示す。
論文 参考訳(メタデータ) (2020-10-06T09:26:55Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。