論文の概要: A more abstractive summarization model
- arxiv url: http://arxiv.org/abs/2002.10959v1
- Date: Tue, 25 Feb 2020 15:22:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 21:37:47.745675
- Title: A more abstractive summarization model
- Title(参考訳): より抽象的な要約モデル
- Authors: Satyaki Chakraborty, Xinya Li, Sayak Chakraborty
- Abstract要約: ポインタ生成ネットワークがなぜ新しい単語を生成できないのかを検討する。
次に、アウト・オブ・ボキャブラリ(out-of-vocabulary)ペナルティを追加することで対処します。
また,R-1,R-2,R-Lスコアを用いて,ほとんどの要約モデルを評価した結果,モデルのルージュスコアも報告した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pointer-generator network is an extremely popular method of text
summarization. More recent works in this domain still build on top of the
baseline pointer generator by augmenting a content selection phase, or by
decomposing the decoder into a contextual network and a language model.
However, all such models that are based on the pointer-generator base
architecture cannot generate novel words in the summary and mostly copy words
from the source text. In our work, we first thoroughly investigate why the
pointer-generator network is unable to generate novel words, and then address
that by adding an Out-of-vocabulary (OOV) penalty. This enables us to improve
the amount of novelty/abstraction significantly. We use normalized n-gram
novelty scores as a metric for determining the level of abstraction. Moreover,
we also report rouge scores of our model since most summarization models are
evaluated with R-1, R-2, R-L scores.
- Abstract(参考訳): ポインタ生成ネットワークはテキスト要約の非常に一般的な方法である。
このドメインにおけるより最近の作業は、コンテンツ選択フェーズの強化や、デコーダをコンテキストネットワークと言語モデルに分解することで、ベースラインポインタジェネレータの上に構築されている。
しかし、ポインタジェネレータベースアーキテクチャに基づく全てのモデルでは、要約中の新しい単語を生成できず、主にソーステキストから単語をコピーすることができない。
本稿では,まず,ポインタ生成ネットワークが新規な単語を生成できない理由を徹底的に検討し,その後にout-of-vocabulary(oov)ペナルティを加えることで対処する。
これにより、ノベルティ/アブストラクションの量を大幅に改善できます。
抽象度を決定する指標として正規化n-gramノベルティスコアを用いる。
さらに,R-1,R-2,R-Lスコアを用いて,ほとんどの要約モデルを評価した結果,モデルのルージュスコアも報告した。
関連論文リスト
- GLIMMER: Incorporating Graph and Lexical Features in Unsupervised Multi-Document Summarization [13.61818620609812]
我々はGLIMMERと呼ばれる軽量で効果的な非教師付きアプローチを提案し、グラフとLexIcalの特徴をベースとした教師なしマルチ文書要約手法を提案する。
まず、ソース文書から文グラフを構築し、それからテキストから低レベルの特徴をマイニングすることで意味クラスタを自動的に識別する。
また,Multi-News,Multi-XScience,DUC-2004で行った実験により,既存の教師なしアプローチよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-19T16:01:48Z) - Retro-FPN: Retrospective Feature Pyramid Network for Point Cloud
Semantic Segmentation [65.78483246139888]
本稿では,各点特徴量の予測を明示的かつふりかえり的な精錬プロセスとしてモデル化するRetro-FPNを提案する。
その重要な斬新さは、前層から意味コンテキストを要約するレトロ・トランスフォーマーである。
Retro-FPNは最先端のバックボーンよりも性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-18T05:28:25Z) - Summarization Programs: Interpretable Abstractive Summarization with
Neural Modular Trees [89.60269205320431]
現在の抽象的要約モデルは明確な解釈可能性の欠如に悩まされるか、あるいは不完全理性を与える。
本稿では,バイナリツリーの(順序付き)リストからなる解釈可能なモジュラーフレームワークであるSummarization Program (SP)を提案する。
要約プログラムは、要約文毎に1つのルートノードを含み、各要約文と文書文を個別のツリーで接続する。
論文 参考訳(メタデータ) (2022-09-21T16:50:22Z) - HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text
Extractive Summarization [57.798070356553936]
HETFORMERはトランスフォーマーをベースとした事前学習モデルであり、抽出要約のための多粒度スパースアテンションを持つ。
単一文書と複数文書の要約タスクの実験から,HETFORMERがルージュF1の最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2021-10-12T22:42:31Z) - MeetSum: Transforming Meeting Transcript Summarization using
Transformers! [2.1915057426589746]
本稿では,Transformer ベースの Pointer Generator Network を用いて要約文を生成する。
このモデルは、エンコーダとデコーダとして2つのLSTMを使用し、入力されたテキストから単語をコピーするポインタネットワークと、語彙外単語を生成するジェネレータネットワークを使用する。
本稿では,ニュース要約データセット上でモデルをトレーニングし,ゼロショット学習を用いてミーティングデータセット上でテストすることで,AMIミーティングデータセット上でのトレーニングよりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2021-08-13T16:34:09Z) - To Point or Not to Point: Understanding How Abstractive Summarizers
Paraphrase Text [4.4044968357361745]
本稿では、Seeなどのポインタジェネレータモデルである1つの一般的な抽象モデルが、その抽象レベルを制御するために、その明示的なコピー/ジェネレータスイッチを使用していることを特徴付ける。
コピー/ジェネレーションスイッチを変更してモデルを強制すると、実際の不正確さと幻覚とともに単純な神経能力のみが明らかになる。
これらの結果から,抽象的要約モデルには,抽象的かつ忠実なパラフレーズを生成するために必要な意味的理解が欠如していることが示唆された。
論文 参考訳(メタデータ) (2021-06-03T04:03:15Z) - Reinforced Generative Adversarial Network for Abstractive Text
Summarization [7.507096634112164]
シーケンス・ツー・シーケンス・モデルは、生成的要約に対する実行可能な新しいアプローチを提供する。
これらのモデルには3つの欠点がある: 原文の詳細の把握はしばしば不正確なものであり、そのようなモデルによって生成されたテキストは繰り返しとなることが多い。
本稿では,強化学習と敵対的生成ネットワークを組み合わせた新しいアーキテクチャを提案し,シーケンス・ツー・シーケンス・アテンション・モデルを提案する。
論文 参考訳(メタデータ) (2021-05-31T17:34:47Z) - LT-LM: a novel non-autoregressive language model for single-shot lattice
rescoring [55.16665077221941]
本稿では,格子全体をモデルへの単一呼び出しで処理する新しいリスコリング手法を提案する。
当社のリコリングポリシーの主な特徴は、新しい非回帰的格子変換言語モデル(LT-LM)です。
論文 参考訳(メタデータ) (2021-04-06T14:06:07Z) - Concept Extraction Using Pointer-Generator Networks [86.75999352383535]
本稿では、ポインタジェネレータネットワークの遠隔監視に基づく、汎用的なオープンドメインOOV指向抽出モデルを提案する。
このモデルは250Kのウィキペディアページから特別にコンパイルされた大規模な注釈付きコーパスで訓練されている。
論文 参考訳(メタデータ) (2020-08-25T22:28:14Z) - Select, Extract and Generate: Neural Keyphrase Generation with
Layer-wise Coverage Attention [75.44523978180317]
本稿では,2つの主要成分からなるニューラルキーフレーズ生成モデルであるemphSEG-Netを提案する。
科学的およびWeb文書から得られた7つのキーフレーズ生成ベンチマークの実験結果は、SEG-Netが最先端のニューラル生成手法よりも大きなマージンで優れていることを示している。
論文 参考訳(メタデータ) (2020-08-04T18:00:07Z) - Knowledge Graph-Augmented Abstractive Summarization with Semantic-Driven
Cloze Reward [42.925345819778656]
本稿では,グラフ拡張と意味駆動型RewarDによる抽象要約のための新しいフレームワークであるASGARDを紹介する。
本稿では,2つのエンコーダ(シーケンシャル文書エンコーダ)とグラフ構造化エンコーダ(グラフ構造化エンコーダ)の利用を提案する。
その結果、我々のモデルは、New York TimesとCNN/Daily Mailのデータセットからの入力として、知識グラフのない変種よりもはるかに高いROUGEスコアを生成することがわかった。
論文 参考訳(メタデータ) (2020-05-03T18:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。