論文の概要: Template-based Abstractive Microblog Opinion Summarisation
- arxiv url: http://arxiv.org/abs/2208.04083v1
- Date: Mon, 8 Aug 2022 12:16:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 12:26:26.226130
- Title: Template-based Abstractive Microblog Opinion Summarisation
- Title(参考訳): テンプレートに基づく抽象マイクロブログオピニオン要約
- Authors: Iman Munire Bilal, Bo Wang, Adam Tsakalidis, Dong Nguyen, Rob Procter,
Maria Liakata
- Abstract要約: 我々は,マイクロブログ意見要約(MOS)の課題を紹介し,ゴールド標準意見要約3100のデータセットを共有する。
このデータセットには、2年間にわたるつぶやきの要約が含まれており、他のパブリックなTwitter要約データセットよりも多くのトピックをカバーしている。
- 参考スコア(独自算出の注目度): 26.777997436856076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the task of microblog opinion summarisation (MOS) and share a
dataset of 3100 gold-standard opinion summaries to facilitate research in this
domain. The dataset contains summaries of tweets spanning a 2-year period and
covers more topics than any other public Twitter summarisation dataset.
Summaries are abstractive in nature and have been created by journalists
skilled in summarising news articles following a template separating factual
information (main story) from author opinions. Our method differs from previous
work on generating gold-standard summaries from social media, which usually
involves selecting representative posts and thus favours extractive
summarisation models. To showcase the dataset's utility and challenges, we
benchmark a range of abstractive and extractive state-of-the-art summarisation
models and achieve good performance, with the former outperforming the latter.
We also show that fine-tuning is necessary to improve performance and
investigate the benefits of using different sample sizes.
- Abstract(参考訳): 我々は,マイクロブログ意見要約(MOS)の課題を紹介し,この領域の研究を促進するために3100のゴールドスタンダード意見要約データセットを共有する。
データセットには、2年間のつぶやきの要約が含まれており、他の公開Twitter要約データセットよりも多くのトピックをカバーする。
要約は本質的に抽象的であり、著者の意見から事実情報(メインストーリー)を分離するテンプレートに従ってニュース記事の要約に熟練したジャーナリストによって作成された。
提案手法は,ソーシャルメディアからゴールドスタンダード・サマリーを創出する以前の作業と異なり,通常は代表記事の選択を伴うため,抽出的要約モデルが好まれる。
データセットの有用性と課題を示すために、抽象的および抽出的総和モデルのベンチマークを行い、前者が後者を上回って優れた性能を達成する。
また,性能向上のためには微調整が必要であり,サンプルサイズの違いによる利点について検討する。
関連論文リスト
- Summary-Oriented Vision Modeling for Multimodal Abstractive
Summarization [63.320005222549646]
マルチモーダル抽象要約(MAS)は、マルチモーダルデータ(テキストとビジョン)から簡潔な要約を作成することを目的としている。
本稿では,要約指向の視覚的特徴によって要約品質を改善することを提案する。
中高、低低、ゼロリソースのシナリオをカバーする44言語の実験は、提案手法の有効性と優位性を検証する。
論文 参考訳(メタデータ) (2022-12-15T09:05:26Z) - Salience Allocation as Guidance for Abstractive Summarization [61.31826412150143]
本稿では, サリエンセ・サリエンス・ガイダンス(SEASON, SaliencE Allocation as Guidance for Abstractive SummarizatiON)を用いた新しい要約手法を提案する。
SEASONは、サリエンス予測の割り当てを利用して抽象的な要約を導き、異なる抽象性のある記事に順応する。
論文 参考訳(メタデータ) (2022-10-22T02:13:44Z) - NEWTS: A Corpus for News Topic-Focused Summarization [9.872518517174498]
本稿では,CNN/Dailymailデータセットに基づく最初の話題要約コーパスを提案する。
提案手法の有効性を検証し,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-05-31T10:01:38Z) - Aspect-Controllable Opinion Summarization [58.5308638148329]
アスペクトクエリに基づいてカスタマイズした要約を生成する手法を提案する。
レビューコーパスを用いて、アスペクトコントローラで強化された(リビュー、サマリ)ペアの合成トレーニングデータセットを作成する。
合成データセットを用いて事前学習したモデルを微調整し、アスペクトコントローラを変更することでアスペクト固有の要約を生成する。
論文 参考訳(メタデータ) (2021-09-07T16:09:17Z) - Topic Modeling Based Extractive Text Summarization [0.0]
本稿では,潜在トピックに基づいて内容をクラスタリングすることで,テキストを要約する新しい手法を提案する。
我々は、テキスト要約へのアプローチにおいて、より使用量が少なく挑戦的なWikiHowデータセットを活用している。
論文 参考訳(メタデータ) (2021-06-29T12:28:19Z) - Unsupervised Opinion Summarization with Content Planning [58.5308638148329]
要約モデルにコンテンツプランニングを明示的に組み込むことで、より高い品質のアウトプットが得られることを示す。
また、より自然な合成データセットを作成し、実世界の文書と要約のペアに似ている。
当社のアプローチは,情報的,一貫性,流動的な要約を生成する上で,競争モデルよりも優れています。
論文 参考訳(メタデータ) (2020-12-14T18:41:58Z) - Bengali Abstractive News Summarization(BANS): A Neural Attention
Approach [0.8793721044482612]
本稿では,エンコーダ・デコーダに着目したSeq2seqベースのLong Short-Term Memory(LSTM)ネットワークモデルを提案する。
提案システムでは,単語の長い列を人文や人文で生成する,局所的な注意に基づくモデルを構築している。
また,Bangla.bdnews24.com1から収集した19k以上の記事とそれに対応する人文要約のデータセットも作成した。
論文 参考訳(メタデータ) (2020-12-03T08:17:31Z) - Improving Zero and Few-Shot Abstractive Summarization with Intermediate
Fine-tuning and Data Augmentation [101.26235068460551]
大規模テキストコーパス上での自己教師対象による事前学習モデルは、英語テキスト要約タスクにおける最先端のパフォーマンスを達成する。
モデルは通常、数十万のデータポイントで微調整されるが、これは新しいニッチなドメインに要約を適用する際に、実現不可能な要件である。
我々は、教師なし、データセット固有の方法で要約のための訓練済みモデルを微調整するための、WikiTransferと呼ばれる新しい一般化可能な手法を紹介した。
論文 参考訳(メタデータ) (2020-10-24T08:36:49Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。