論文の概要: Subjective Bias in Abstractive Summarization
- arxiv url: http://arxiv.org/abs/2106.10084v1
- Date: Fri, 18 Jun 2021 12:17:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 20:46:09.125118
- Title: Subjective Bias in Abstractive Summarization
- Title(参考訳): 抽象要約における主観バイアス
- Authors: Lei Li, Wei Liu, Marina Litvak, Natalia Vanetik, Jiacheng Pei, Yinan
Liu, Siya Qi
- Abstract要約: 主観的バイアスと同じ内容を要約する複数の表現の相違を定式化し、抽象的要約の文脈におけるこのバイアスの役割について検討する。
スタイルクラスタ化されたデータセットに基づいてトレーニングされた要約モデルの結果は、より収束性、抽象化、一般化につながるある種のスタイルが存在することを示している。
- 参考スコア(独自算出の注目度): 11.675414451656568
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the subjectivity of the summarization, it is a good practice to have
more than one gold summary for each training document. However, many modern
large-scale abstractive summarization datasets have only one-to-one samples
written by different human with different styles. The impact of this phenomenon
is understudied. We formulate the differences among possible multiple
expressions summarizing the same content as subjective bias and examine the
role of this bias in the context of abstractive summarization. In this paper a
lightweight and effective method to extract the feature embeddings of
subjective styles is proposed. Results of summarization models trained on
style-clustered datasets show that there are certain types of styles that lead
to better convergence, abstraction and generalization. The reproducible code
and generated summaries are available online.
- Abstract(参考訳): 要約の主観性のため、各訓練文書に複数の金の要約を持つことは良い習慣である。
しかし、現代の大規模な抽象要約データセットの多くは、異なるスタイルの異なる人間によって書かれた1対1のサンプルしか持たない。
この現象の影響は未定である。
同一内容を主観的バイアスとして要約する複数の表現間の差異を定式化し,抽象的要約の文脈におけるバイアスの役割を検討する。
本稿では,主観的スタイルの特徴埋め込みを軽量かつ効果的に抽出する手法を提案する。
スタイルクラスタデータセットでトレーニングされた要約モデルの結果、コンバージェンス、抽象化、一般化に繋がる特定のタイプのスタイルが存在することが示されている。
再現可能なコードと生成された要約はオンラインで入手できる。
関連論文リスト
- Bias in Opinion Summarisation from Pre-training to Adaptation: A Case
Study in Political Bias [4.964212137957899]
オピニオン要約は、製品レビュー、ディスカッションフォーラム、ソーシャルメディアのテキストなどの文書で提示される健全な情報と意見を要約することを目的としている。
偏見のある要約を作ることは 世論を揺さぶるリスクがあります
論文 参考訳(メタデータ) (2024-02-01T04:15:59Z) - OpineSum: Entailment-based self-training for abstractive opinion
summarization [6.584115526134759]
本稿では,抽象的な意見要約のための新しい自己学習手法,OpineSumを提案する。
このアプローチの要約は、テキスト・エンターメントの新たな応用を用いて構築されている。
OpineSumは、両方の設定で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-21T06:20:28Z) - Correcting Diverse Factual Errors in Abstractive Summarization via
Post-Editing and Language Model Infilling [56.70682379371534]
提案手法は, 誤要約の修正において, 従来手法よりもはるかに優れていることを示す。
我々のモデルであるFactEditは、CNN/DMで11点、XSumで31点以上のファクトリティスコアを改善する。
論文 参考訳(メタデータ) (2022-10-22T07:16:19Z) - Salience Allocation as Guidance for Abstractive Summarization [61.31826412150143]
本稿では, サリエンセ・サリエンス・ガイダンス(SEASON, SaliencE Allocation as Guidance for Abstractive SummarizatiON)を用いた新しい要約手法を提案する。
SEASONは、サリエンス予測の割り当てを利用して抽象的な要約を導き、異なる抽象性のある記事に順応する。
論文 参考訳(メタデータ) (2022-10-22T02:13:44Z) - To Point or Not to Point: Understanding How Abstractive Summarizers
Paraphrase Text [4.4044968357361745]
本稿では、Seeなどのポインタジェネレータモデルである1つの一般的な抽象モデルが、その抽象レベルを制御するために、その明示的なコピー/ジェネレータスイッチを使用していることを特徴付ける。
コピー/ジェネレーションスイッチを変更してモデルを強制すると、実際の不正確さと幻覚とともに単純な神経能力のみが明らかになる。
これらの結果から,抽象的要約モデルには,抽象的かつ忠実なパラフレーズを生成するために必要な意味的理解が欠如していることが示唆された。
論文 参考訳(メタデータ) (2021-06-03T04:03:15Z) - GSum: A General Framework for Guided Neural Abstractive Summarization [102.29593069542976]
本稿では,様々な外部ガイダンスを入力として効果的に活用できる汎用的かつガイド付き要約フレームワーク(GSum)を提案する。
実験により、このモデルが有効であることが示され、ROUGEによれば、4つの一般的な要約データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-10-15T20:46:14Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Unsupervised Opinion Summarization with Noising and Denoising [85.49169453434554]
ユーザレビューのコーパスから合成データセットを作成し、レビューをサンプリングし、要約のふりをして、ノイズのあるバージョンを生成します。
テスト時に、モデルは本物のレビューを受け入れ、健全な意見を含む要約を生成し、合意に達しないものをノイズとして扱います。
論文 参考訳(メタデータ) (2020-04-21T16:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。