論文の概要: Learning to Fuse Sentences with Transformers for Summarization
- arxiv url: http://arxiv.org/abs/2010.03726v1
- Date: Thu, 8 Oct 2020 02:01:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 11:57:20.869331
- Title: Learning to Fuse Sentences with Transformers for Summarization
- Title(参考訳): 要約用変圧器を用いた文の融合学習
- Authors: Logan Lebanoff, Franck Dernoncourt, Doo Soon Kim, Lidan Wang, Walter
Chang, Fei Liu
- Abstract要約: 要約者は、融合によって要約文をほとんど生成しない傾向があるか、または、その要約が本来の意味を保たないよう誘導する間違った融合を生成する傾向がある。
本稿では,文間の対応点の知識を活用することによって,文融合を行う能力を高める新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 41.550397869788746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to fuse sentences is highly attractive for summarization systems
because it is an essential step to produce succinct abstracts. However, to
date, summarizers can fail on fusing sentences. They tend to produce few
summary sentences by fusion or generate incorrect fusions that lead the summary
to fail to retain the original meaning. In this paper, we explore the ability
of Transformers to fuse sentences and propose novel algorithms to enhance their
ability to perform sentence fusion by leveraging the knowledge of points of
correspondence between sentences. Through extensive experiments, we investigate
the effects of different design choices on Transformer's performance. Our
findings highlight the importance of modeling points of correspondence between
sentences for effective sentence fusion.
- Abstract(参考訳): 文を融合する能力は、簡潔な抽象文を生成するための重要なステップであるため、要約システムにとって非常に魅力的である。
しかし、現在まで、要約者は文章を熟読しても失敗することがある。
それらは融合によってわずかな要約文を生成するか、あるいは不正確な融合を発生させる傾向があり、要約文は元の意味を保たない。
本稿では,文を融合させるトランスフォーマーの能力について検討し,文間の対応点の知識を活用して文融合を行う能力を高める新しいアルゴリズムを提案する。
広範な実験により, 異なる設計選択がトランスフォーマーの性能に及ぼす影響について検討した。
本研究は,文間の対応点のモデル化の重要性を強調した。
関連論文リスト
- Learning to Achieve Goals with Belief State Transformers [50.196123952714245]
ビリーフ状態変換器(Belief State Transformer)は、接頭辞と接尾辞の両方を入力として取る次世代の予測器である。
Belief State Transformerは、従来のフォワードオンリーのトランスフォーマーが苦労する課題を解決するために効果的に学習する。
論文 参考訳(メタデータ) (2024-10-30T23:26:06Z) - `Keep it Together': Enforcing Cohesion in Extractive Summaries by
Simulating Human Memory [22.659031563705245]
本稿では,要約における情報性や冗長性を制御しつつ,凝集を強制することを目的としている。
我々の文セレクタは、人間の記憶をシミュレートしてトピックを追跡する。
非常に密集した要約を抽出することはできるが、それでも人間にとって有意義な内容の要約を読めばよい。
論文 参考訳(メタデータ) (2024-02-16T12:43:26Z) - Improving the Robustness of Summarization Systems with Dual Augmentation [68.53139002203118]
頑健な要約システムは、入力中の特定の単語の選択やノイズに関わらず、文書のギストをキャプチャできるべきである。
まず,単語レベルの同義語置換や雑音を含む摂動に対する要約モデルの頑健性について検討する。
SummAttackerを提案する。これは言語モデルに基づく対数サンプルを生成するための効率的な手法である。
論文 参考訳(メタデータ) (2023-06-01T19:04:17Z) - Factually Consistent Summarization via Reinforcement Learning with
Textual Entailment Feedback [57.816210168909286]
我々は,この問題を抽象的な要約システムで解くために,テキストエンテーメントモデルの最近の進歩を活用している。
我々は、事実整合性を最適化するために、レファレンスフリーのテキストエンターメント報酬を用いた強化学習を用いる。
自動測定と人的評価の両結果から,提案手法は生成した要約の忠実さ,サリエンス,簡潔さを著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-05-31T21:04:04Z) - Enhancing Coherence of Extractive Summarization with Multitask Learning [40.349019691412465]
本研究では,コヒーレンス向上を伴う抽出要約のためのマルチタスク学習アーキテクチャを提案する。
アーキテクチャは、抽出要約器とコヒーレント判別器モジュールとを含む。
実験の結果,提案手法は抽出した要約文の連続文の割合を大幅に改善することがわかった。
論文 参考訳(メタデータ) (2023-05-22T09:20:58Z) - HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text
Extractive Summarization [57.798070356553936]
HETFORMERはトランスフォーマーをベースとした事前学習モデルであり、抽出要約のための多粒度スパースアテンションを持つ。
単一文書と複数文書の要約タスクの実験から,HETFORMERがルージュF1の最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2021-10-12T22:42:31Z) - Transformer-F: A Transformer network with effective methods for learning
universal sentence representation [8.225067988604351]
Transformerモデルは、自然言語処理で文表現に広く使われている。
本稿では,トランスフォーマーの性能向上のための2つの手法を提案する。
論文 参考訳(メタデータ) (2021-07-02T03:20:11Z) - Better Highlighting: Creating Sub-Sentence Summary Highlights [40.46639471959677]
本稿では,混乱を避けるために,自己完結型ハイライトを生成する新しい手法を提案する。
提案手法は, 決定点過程と文脈表現を組み合わせ, 部分文セグメントの最適集合を同定する。
本手法の柔軟性とモデリング能力を示すため,要約データセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2020-10-20T18:57:42Z) - Unsupervised Extractive Summarization by Pre-training Hierarchical
Transformers [107.12125265675483]
教師なし抽出文書要約は、訓練中にラベル付き要約を用いることなく、文書から重要な文章を選択することを目的としている。
既存の手法は主にグラフベースで、文をノードとして、エッジの重みは文の類似性によって測定される。
教師なし抽出要約のための文のランク付けにはトランスフォーマーの注意が利用できることがわかった。
論文 参考訳(メタデータ) (2020-10-16T08:44:09Z) - Understanding Points of Correspondence between Sentences for Abstractive
Summarization [39.7404761923196]
本稿では,文書から引き出された文の融合について,対応点の概念を導入して検討する。
我々は、文書、ソースおよび融合文、および文間の対応点の人間のアノテーションを含むデータセットを作成する。
論文 参考訳(メタデータ) (2020-06-10T02:42:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。