論文の概要: OpineSum: Entailment-based self-training for abstractive opinion
summarization
- arxiv url: http://arxiv.org/abs/2212.10791v1
- Date: Wed, 21 Dec 2022 06:20:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 13:43:31.567200
- Title: OpineSum: Entailment-based self-training for abstractive opinion
summarization
- Title(参考訳): opinesum: 抽象的意見要約のための自己学習
- Authors: Annie Louis and Joshua Maynez
- Abstract要約: 本稿では,抽象的な意見要約のための新しい自己学習手法,OpineSumを提案する。
このアプローチの要約は、テキスト・エンターメントの新たな応用を用いて構築されている。
OpineSumは、両方の設定で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 6.584115526134759
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A typical product or place often has hundreds of reviews, and summarization
of these texts is an important and challenging problem. Recent progress on
abstractive summarization in domains such as news has been driven by supervised
systems trained on hundreds of thousands of news articles paired with
human-written summaries. However for opinion texts, such large scale datasets
are rarely available. Unsupervised methods, self-training, and few-shot
learning approaches bridge that gap. In this work, we present a novel
self-training approach, OpineSum, for abstractive opinion summarization. The
summaries in this approach are built using a novel application of textual
entailment and capture the consensus of opinions across the various reviews for
an item. This method can be used to obtain silver-standard summaries on a large
scale and train both unsupervised and few-shot abstractive summarization
systems. OpineSum achieves state-of-the-art performance in both settings.
- Abstract(参考訳): 典型的な製品や場所はしばしば数百のレビューがあり、これらのテキストの要約は重要で困難な問題である。
ニュースなどのドメインにおける抽象要約の最近の進歩は、人文要約と組み合わせた数十万のニュース記事で訓練された教師システムによって推進されている。
しかし意見文では、このような大規模なデータセットはめったに利用できない。
教師なしの方法、自己学習、数発の学習アプローチはそのギャップを埋める。
本稿では,抽象的意見要約のための新しい自己学習手法であるopinesumを提案する。
このアプローチの要約は、テキスト・エンターテイメントの新たな応用を用いて構築され、項目に対する様々なレビューの意見のコンセンサスを捉えている。
この方法は、銀標準の要約を大規模に取得し、教師なしおよび少数ショットの抽象要約システムの両方を訓練するために使用できる。
OpineSumは、両方の設定で最先端のパフォーマンスを達成する。
関連論文リスト
- Factually Consistent Summarization via Reinforcement Learning with
Textual Entailment Feedback [57.816210168909286]
我々は,この問題を抽象的な要約システムで解くために,テキストエンテーメントモデルの最近の進歩を活用している。
我々は、事実整合性を最適化するために、レファレンスフリーのテキストエンターメント報酬を用いた強化学習を用いる。
自動測定と人的評価の両結果から,提案手法は生成した要約の忠実さ,サリエンス,簡潔さを著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-05-31T21:04:04Z) - On the State of German (Abstractive) Text Summarization [3.1776833268555134]
ドイツの抽象的テキスト要約の景観を評価する。
業界において,抽象的なテキスト要約のための実用的なソリューションがいまだに欠落している理由を考察する。
論文 参考訳(メタデータ) (2023-01-17T18:59:20Z) - Generating Multiple-Length Summaries via Reinforcement Learning for
Unsupervised Sentence Summarization [44.835811239393244]
文要約は、テキストの中核的な内容を維持しながら与えられたテキストを短縮する。
人書きの要約のないテキストを要約するために、教師なしのアプローチが研究されている。
本研究では, 基礎構造を含まない強化学習に基づく抽象モデルを提案する。
論文 参考訳(メタデータ) (2022-12-21T08:34:28Z) - Salience Allocation as Guidance for Abstractive Summarization [61.31826412150143]
本稿では, サリエンセ・サリエンス・ガイダンス(SEASON, SaliencE Allocation as Guidance for Abstractive SummarizatiON)を用いた新しい要約手法を提案する。
SEASONは、サリエンス予測の割り当てを利用して抽象的な要約を導き、異なる抽象性のある記事に順応する。
論文 参考訳(メタデータ) (2022-10-22T02:13:44Z) - Learning Opinion Summarizers by Selecting Informative Reviews [81.47506952645564]
31,000以上の製品のユーザレビューと組み合わせた大規模な要約データセットを収集し、教師付きトレーニングを可能にします。
多くのレビューの内容は、人間が書いた要約には反映されず、したがってランダムなレビューサブセットで訓練された要約者は幻覚する。
我々は、これらのサブセットで表現された意見を要約し、レビューの情報的サブセットを選択するための共同学習としてタスクを定式化する。
論文 参考訳(メタデータ) (2021-09-09T15:01:43Z) - Neural Abstractive Unsupervised Summarization of Online News Discussions [1.2617078020344619]
本稿では,オンラインニュース討論の要約を抽象的に生成する新しい手法を提案する。
本モデルは,生成した要約とスレッド上の各コメントのROUGEスコアを用いて評価する。
論文 参考訳(メタデータ) (2021-06-07T20:33:51Z) - Summaformers @ LaySumm 20, LongSumm 20 [14.44754831438127]
本稿では,複数の領域から科学研究論文を要約する問題について考察する。
私たちはLaySummとLongSummという2種類の要約を区別します。
最新のTransformerベースのモデルを活用しながら、私たちのシステムはシンプルで直感的で、特定の紙セクションが人間の要約にどのように貢献するかに基づいています。
論文 参考訳(メタデータ) (2021-01-10T13:48:12Z) - Summarizing Text on Any Aspects: A Knowledge-Informed Weakly-Supervised
Approach [89.56158561087209]
文書に関連する任意の側面を要約する。
監視データがないため、我々は新しい弱い監督構築法とアスペクト・モデリング・スキームを開発した。
実験により,本手法は実文書と合成文書の両方を要約することで,性能の向上を図っている。
論文 参考訳(メタデータ) (2020-10-14T03:20:46Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Unsupervised Opinion Summarization with Noising and Denoising [85.49169453434554]
ユーザレビューのコーパスから合成データセットを作成し、レビューをサンプリングし、要約のふりをして、ノイズのあるバージョンを生成します。
テスト時に、モデルは本物のレビューを受け入れ、健全な意見を含む要約を生成し、合意に達しないものをノイズとして扱います。
論文 参考訳(メタデータ) (2020-04-21T16:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。