論文の概要: To Point or Not to Point: Understanding How Abstractive Summarizers
Paraphrase Text
- arxiv url: http://arxiv.org/abs/2106.01581v1
- Date: Thu, 3 Jun 2021 04:03:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-05 01:49:15.959067
- Title: To Point or Not to Point: Understanding How Abstractive Summarizers
Paraphrase Text
- Title(参考訳): to point or not to point: Understanding how Abstractive Summarizers Paraphrase Text
- Authors: Matt Wilber, William Timkey, Marten Van Schijndel
- Abstract要約: 本稿では、Seeなどのポインタジェネレータモデルである1つの一般的な抽象モデルが、その抽象レベルを制御するために、その明示的なコピー/ジェネレータスイッチを使用していることを特徴付ける。
コピー/ジェネレーションスイッチを変更してモデルを強制すると、実際の不正確さと幻覚とともに単純な神経能力のみが明らかになる。
これらの結果から,抽象的要約モデルには,抽象的かつ忠実なパラフレーズを生成するために必要な意味的理解が欠如していることが示唆された。
- 参考スコア(独自算出の注目度): 4.4044968357361745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Abstractive neural summarization models have seen great improvements in
recent years, as shown by ROUGE scores of the generated summaries. But despite
these improved metrics, there is limited understanding of the strategies
different models employ, and how those strategies relate their understanding of
language. To understand this better, we run several experiments to characterize
how one popular abstractive model, the pointer-generator model of See et al.
(2017), uses its explicit copy/generation switch to control its level of
abstraction (generation) vs extraction (copying). On an extractive-biased
dataset, the model utilizes syntactic boundaries to truncate sentences that are
otherwise often copied verbatim. When we modify the copy/generation switch and
force the model to generate, only simple paraphrasing abilities are revealed
alongside factual inaccuracies and hallucinations. On an abstractive-biased
dataset, the model copies infrequently but shows similarly limited abstractive
abilities. In line with previous research, these results suggest that
abstractive summarization models lack the semantic understanding necessary to
generate paraphrases that are both abstractive and faithful to the source
document.
- Abstract(参考訳): 抽象的神経要約モデルは近年,生成した要約のROUGEスコアに示すように,大幅に改善されている。
しかし、これらの改善されたメトリクスにもかかわらず、異なるモデルが採用する戦略と、それらの戦略が言語に対する理解にどう関係しているかの理解は限られている。
これを理解するために、See et alのポインタ生成モデルである1つの一般的な抽象モデルがどのように特徴付けられるかを示すいくつかの実験を行った。
(2017)は、明示的なコピー/ジェネレーションスイッチを使用して、抽象化(ジェネレーション)と抽出(コピー)のレベルを制御する。
抽出バイアス付きデータセットでは、このモデルは構文境界を利用して、しばしば複製される文を切断する。
コピー/ジェネレーションスイッチを変更してモデルを生成させると、事実的不正確さや幻覚と並行して単純な言い換え能力のみが現れる。
抽象バイアス付きデータセットでは、モデルは頻繁にコピーされるが、同様に限定的な抽象能力を示す。
これらの結果は,抽象的要約モデルには,抽象的かつ忠実なパラフレーズを生成するために必要な意味的理解が欠けていることを示唆している。
関連論文リスト
- Improving Sequence-to-Sequence Models for Abstractive Text Summarization Using Meta Heuristic Approaches [0.0]
人間には抽象的な能力がある。
ニューラルネットワークの抽象的テキスト要約にSequence-to-Sequence(seq2seq)モデルを使用することは、流行まで上昇している。
本稿では,抽象的なテキスト要約のためのアーキテクチャとモデルを改良することを目的としている。
論文 参考訳(メタデータ) (2024-03-24T17:39:36Z) - Generating Multiple-Length Summaries via Reinforcement Learning for
Unsupervised Sentence Summarization [44.835811239393244]
文要約は、テキストの中核的な内容を維持しながら与えられたテキストを短縮する。
人書きの要約のないテキストを要約するために、教師なしのアプローチが研究されている。
本研究では, 基礎構造を含まない強化学習に基づく抽象モデルを提案する。
論文 参考訳(メタデータ) (2022-12-21T08:34:28Z) - mFACE: Multilingual Summarization with Factual Consistency Evaluation [79.60172087719356]
抽象的な要約は、事前訓練された言語モデルと大規模データセットの可用性のおかげで、近年で新たな関心を集めている。
有望な結果にもかかわらず、現在のモデルはいまだに現実的に矛盾した要約を生み出すことに苦しむ。
事実整合性評価モデルを利用して、多言語要約を改善する。
論文 参考訳(メタデータ) (2022-12-20T19:52:41Z) - Subjective Bias in Abstractive Summarization [11.675414451656568]
主観的バイアスと同じ内容を要約する複数の表現の相違を定式化し、抽象的要約の文脈におけるこのバイアスの役割について検討する。
スタイルクラスタ化されたデータセットに基づいてトレーニングされた要約モデルの結果は、より収束性、抽象化、一般化につながるある種のスタイルが存在することを示している。
論文 参考訳(メタデータ) (2021-06-18T12:17:55Z) - Improving Faithfulness in Abstractive Summarization with Contrast
Candidate Generation and Selection [54.38512834521367]
モデル非依存後処理技術としてのコントラスト候補生成と選択について検討する。
代替候補要約を生成して判別補正モデルを学習する。
このモデルを使用して、最終的な出力サマリーとして最適な候補を選択する。
論文 参考訳(メタデータ) (2021-04-19T05:39:24Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Unsupervised Opinion Summarization with Noising and Denoising [85.49169453434554]
ユーザレビューのコーパスから合成データセットを作成し、レビューをサンプリングし、要約のふりをして、ノイズのあるバージョンを生成します。
テスト時に、モデルは本物のレビューを受け入れ、健全な意見を含む要約を生成し、合意に達しないものをノイズとして扱います。
論文 参考訳(メタデータ) (2020-04-21T16:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。