論文の概要: A Cascade Approach to Neural Abstractive Summarization with Content
Selection and Fusion
- arxiv url: http://arxiv.org/abs/2010.03722v1
- Date: Thu, 8 Oct 2020 01:49:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 11:57:54.601088
- Title: A Cascade Approach to Neural Abstractive Summarization with Content
Selection and Fusion
- Title(参考訳): コンテンツ選択と融合による神経抽象要約へのカスケードアプローチ
- Authors: Logan Lebanoff, Franck Dernoncourt, Doo Soon Kim, Walter Chang, Fei
Liu
- Abstract要約: 本稿では,ニューラルネットワークの要約のためのカスケードアーキテクチャを提案する。
重要コンテンツの断片を別々に識別し、それらをコヒーレントなテキストに縫合するカスケードパイプラインは、エンド・ツー・エンドのシステムに匹敵する、あるいはオーバーランクであることを示す。
- 参考スコア(独自算出の注目度): 41.60603627311872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an empirical study in favor of a cascade architecture to neural
text summarization. Summarization practices vary widely but few other than news
summarization can provide a sufficient amount of training data enough to meet
the requirement of end-to-end neural abstractive systems which perform content
selection and surface realization jointly to generate abstracts. Such systems
also pose a challenge to summarization evaluation, as they force content
selection to be evaluated along with text generation, yet evaluation of the
latter remains an unsolved problem. In this paper, we present empirical results
showing that the performance of a cascaded pipeline that separately identifies
important content pieces and stitches them together into a coherent text is
comparable to or outranks that of end-to-end systems, whereas a pipeline
architecture allows for flexible content selection. We finally discuss how we
can take advantage of a cascaded pipeline in neural text summarization and shed
light on important directions for future research.
- Abstract(参考訳): 本稿では,ニューラルネットワークの要約にカスケードアーキテクチャを用いた経験的研究を行う。
要約の実践は多岐にわたるが、ニュース要約以外には、コンテンツ選択と表面実現を共同で行うエンドツーエンドのニューラル抽象システムの要件を満たす十分な量のトレーニングデータを提供できるものはほとんどない。
これらのシステムはまた、テキスト生成とともにコンテンツ選択を評価させるため、要約評価にも挑戦するが、後者の評価は未解決の問題のままである。
本稿では,重要なコンテンツ片を別々に識別し,それらをコヒーレントなテキストに縫合するカスケードパイプラインの性能が,エンド・ツー・エンドのシステムに匹敵するあるいは過度な性能を示す一方,パイプラインアーキテクチャは柔軟なコンテンツ選択を可能にしていることを示す実験結果を示す。
最後に,ニューラルネットワークの要約におけるカスケードパイプラインの活用方法について論じ,今後の研究への重要な方向について考察する。
関連論文リスト
- Novel Chapter Abstractive Summarization using Spinal Tree Aware
Sub-Sentential Content Selection [29.30939223344407]
本稿では,新しい章を要約するパイプライン抽出・抽象的手法を提案する。
既存の新章データセットの先行研究で報告された最良の結果よりも3.71 Rouge-1ポイントの改善が見られた。
論文 参考訳(メタデータ) (2022-11-09T14:12:09Z) - Salience Allocation as Guidance for Abstractive Summarization [61.31826412150143]
本稿では, サリエンセ・サリエンス・ガイダンス(SEASON, SaliencE Allocation as Guidance for Abstractive SummarizatiON)を用いた新しい要約手法を提案する。
SEASONは、サリエンス予測の割り当てを利用して抽象的な要約を導き、異なる抽象性のある記事に順応する。
論文 参考訳(メタデータ) (2022-10-22T02:13:44Z) - Improving Multi-Document Summarization through Referenced Flexible
Extraction with Credit-Awareness [21.037841262371355]
MDS(Multi-Document Summarization)における注目すべき課題は、入力の非常に長い長さである。
本稿では,この問題を克服するための抽出・抽出・吸収変換器フレームワークを提案する。
擬似抽出オラクルにない文の不等式の重要性をモデルに認識させる損失重み付け機構を提案する。
論文 参考訳(メタデータ) (2022-05-04T04:40:39Z) - SHORING: Design Provable Conditional High-Order Interaction Network via
Symbolic Testing [15.324528842034177]
我々は、ニューラルネットワークによってどのような専門家由来の機能が学べるかという疑問に答えるのに役立つシンボリックテスティングフレームワークを提案する。
このテストフレームワークに触発されて、SHORINGと呼ばれる効率的なアーキテクチャを導入しました。
SHORINGは,標準的なマルチヘッド自己認識ネットワークでは学習できない,標準的な記号表現を学習することができる,と我々は主張する。
論文 参考訳(メタデータ) (2021-07-03T02:33:32Z) - The Factual Inconsistency Problem in Abstractive Text Summarization: A
Survey [25.59111855107199]
Seq2Seqフレームワークによって開発されたニューラルエンコーダデコーダモデルは、より抽象的な要約を生成するという目標を達成するために提案されている。
高いレベルでは、そのようなニューラルネットワークは、使用される単語やフレーズに制約を加えることなく、自由に要約を生成することができる。
しかし、神経モデルの抽象化能力は二重刃の剣である。
論文 参考訳(メタデータ) (2021-04-30T08:46:13Z) - Learning to Segment Human Body Parts with Synthetically Trained Deep
Convolutional Networks [58.0240970093372]
本稿では,合成データのみを用いて学習した深部畳み込みニューラルネットワークに基づく人体部分分割のための新しい枠組みを提案する。
提案手法は,人体部品の実際の注釈付きデータを用いてモデルを訓練することなく,最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-02-02T12:26:50Z) - Unsupervised Opinion Summarization with Content Planning [58.5308638148329]
要約モデルにコンテンツプランニングを明示的に組み込むことで、より高い品質のアウトプットが得られることを示す。
また、より自然な合成データセットを作成し、実世界の文書と要約のペアに似ている。
当社のアプローチは,情報的,一貫性,流動的な要約を生成する上で,競争モデルよりも優れています。
論文 参考訳(メタデータ) (2020-12-14T18:41:58Z) - Topic-Guided Abstractive Text Summarization: a Joint Learning Approach [19.623946402970933]
本稿では,抽象テキスト要約のための新しいアプローチ,トピックガイドによる抽象要約を提案する。
ニューラルネットワークをTransformerベースのシーケンス・ツー・シーケンス(seq2seq)モデルに結合学習フレームワークに組み込むことが目的だ。
論文 参考訳(メタデータ) (2020-10-20T14:45:25Z) - CDEvalSumm: An Empirical Study of Cross-Dataset Evaluation for Neural
Summarization Systems [121.78477833009671]
データセット間設定下での様々な要約モデルの性能について検討する。
異なるドメインの5つのデータセットに対する11の代表的な要約システムに関する包括的な研究は、モデルアーキテクチャと生成方法の影響を明らかにしている。
論文 参考訳(メタデータ) (2020-10-11T02:19:15Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。