論文の概要: Massive Multi-Document Summarization of Product Reviews with Weak
Supervision
- arxiv url: http://arxiv.org/abs/2007.11348v1
- Date: Wed, 22 Jul 2020 11:22:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 22:38:24.299532
- Title: Massive Multi-Document Summarization of Product Reviews with Weak
Supervision
- Title(参考訳): 弱スーパービジョンによる製品レビューの大量多文書要約
- Authors: Ori Shapira and Ran Levy
- Abstract要約: 製品レビュー要約は、MDS(Multi-Document Summarization)タスクの一種です。
レビューの小さなサンプルを要約すると、重要な情報が失われる可能性がある。
本稿では,標準的な要約アルゴリズムに基づいて,大量のレビューを要約するスキーマを提案する。
- 参考スコア(独自算出の注目度): 11.462916848094403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Product reviews summarization is a type of Multi-Document Summarization (MDS)
task in which the summarized document sets are often far larger than in
traditional MDS (up to tens of thousands of reviews). We highlight this
difference and coin the term "Massive Multi-Document Summarization" (MMDS) to
denote an MDS task that involves hundreds of documents or more. Prior work on
product reviews summarization considered small samples of the reviews, mainly
due to the difficulty of handling massive document sets. We show that
summarizing small samples can result in loss of important information and
provide misleading evaluation results. We propose a schema for summarizing a
massive set of reviews on top of a standard summarization algorithm. Since
writing large volumes of reference summaries needed for advanced neural network
models is impractical, our solution relies on weak supervision. Finally, we
propose an evaluation scheme that is based on multiple crowdsourced reference
summaries and aims to capture the massive review collection. We show that an
initial implementation of our schema significantly improves over several
baselines in ROUGE scores, and exhibits strong coherence in a manual linguistic
quality assessment.
- Abstract(参考訳): 製品レビュー要約(Product Review summarization)とは、MDS(Multi-Document Summarization)タスクの一種で、要約されたドキュメントセットは、しばしば従来のMDSよりもはるかに大きい(最大数万のレビュー)。
我々はこの違いを強調し、数百以上の文書を含むMDSタスクを表すために"Massive Multi-Document Summarization"(MMDS)という用語を造語する。
製品レビューの要約に関する以前の研究は、レビューの小さなサンプルを考慮に入れていた。
小型サンプルを要約すると,重要な情報を失う可能性があり,誤解を招く評価結果が得られる。
本稿では,標準要約アルゴリズム上に大量のレビュー集合を要約するためのスキーマを提案する。
高度なニューラルネットワークモデルに必要な大量の参照サマリーを書くことは現実的ではないため、我々のソリューションは弱い監督に依存している。
最後に,クラウドソーシングされた複数の参照要約をベースとした評価手法を提案する。
ROUGEスコアのいくつかのベースラインに対して,スキーマの初期実装が大幅に向上し,手動による言語品質評価において強い一貫性を示すことを示す。
関連論文リスト
- Unsupervised Multi-document Summarization with Holistic Inference [41.58777650517525]
本稿では,教師なし多文書抽出要約のための新しい総合的枠組みを提案する。
サブセット代表指数(SRI)は、原文からの文のサブセットの重要性と多様性のバランスをとる。
その結果,多文書要約性能の向上には多様性が不可欠であることが示唆された。
論文 参考訳(メタデータ) (2023-09-08T02:56:30Z) - How Far are We from Robust Long Abstractive Summarization? [39.34743996451813]
我々は、信頼できる要約を生成するために、長い文書抽象要約システム(モデルとメトリクス)を実装して評価する。
長期の文書評価指標について,人間の評価結果から,ROUGEは要約の関連性を評価する上で最善であることが明らかとなった。
我々は、より広い範囲の要約設定でメトリクスの開発に貢献できることを願って、注釈付き長いドキュメントデータセットをリリースします。
論文 参考訳(メタデータ) (2022-10-30T03:19:50Z) - How "Multi" is Multi-Document Summarization? [15.574673241564932]
MDSデータセットの参照要約とシステム要約の両方が、実際に分散情報に基づいていることが期待されている。
「要約が分散する度合いを評価するための自動測度を提案する。」
以上の結果から,MSSデータセットは複数の文書からの情報の組み合わせをほとんど必要とせず,単一の文書が要約内容全体をカバーしていることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T10:20:09Z) - Unsupervised Summarization with Customized Granularities [76.26899748972423]
本稿では,最初の教師なし多粒度要約フレームワークであるGranuSumを提案する。
異なる数のイベントを入力することで、GranuSumは教師なしの方法で複数の粒度のサマリーを生成することができる。
論文 参考訳(メタデータ) (2022-01-29T05:56:35Z) - Learning Opinion Summarizers by Selecting Informative Reviews [81.47506952645564]
31,000以上の製品のユーザレビューと組み合わせた大規模な要約データセットを収集し、教師付きトレーニングを可能にします。
多くのレビューの内容は、人間が書いた要約には反映されず、したがってランダムなレビューサブセットで訓練された要約者は幻覚する。
我々は、これらのサブセットで表現された意見を要約し、レビューの情報的サブセットを選択するための共同学習としてタスクを定式化する。
論文 参考訳(メタデータ) (2021-09-09T15:01:43Z) - An Enhanced MeanSum Method For Generating Hotel Multi-Review
Summarizations [0.06091702876917279]
マルチアスペクトマーカ(MAM)をコンテンツセレクタとして使用し、マルチアスペクトでこの問題に対処する。
また,生成した要約の長さを制御する正規化器を提案する。
改良されたモデルでは,元のMeansum法よりも高いROUGE,知覚精度が得られる。
論文 参考訳(メタデータ) (2020-12-07T13:16:01Z) - SupMMD: A Sentence Importance Model for Extractive Summarization using
Maximum Mean Discrepancy [92.5683788430012]
SupMMDは、カーネルの2サンプルテストと最大の相違点に基づく、ジェネリックおよび更新の要約のための新しいテクニックである。
DUC-2004 および TAC-2009 データセット上での現在の技術状況を満たしたり超えたりすることで,SupMMD の総合的および更新的要約タスクにおける有効性を示す。
論文 参考訳(メタデータ) (2020-10-06T09:26:55Z) - Corpora Evaluation and System Bias Detection in Multi-document
Summarization [25.131744693121508]
MDS(Multi-document summarization)は、文書の集合から簡潔なテキスト段落にキーポイントを反映するタスクである。
タスクの標準的な定義がないため、さまざまなレベルの重複と、参加するドキュメント間のコンフリクトを持つデータセットに遭遇する。
新しいシステムは、選択したデータセットのセットについて結果を報告し、他のデータセットのパフォーマンスと相関しないかもしれない。
論文 参考訳(メタデータ) (2020-10-05T05:25:43Z) - Unsupervised Reference-Free Summary Quality Evaluation via Contrastive
Learning [66.30909748400023]
教師なしコントラスト学習により,参照要約を使わずに要約品質を評価することを提案する。
具体的には、BERTに基づく言語的品質と意味情報の両方をカバーする新しい指標を設計する。
ニューズルームとCNN/デイリーメールの実験では,新たな評価手法が参照サマリーを使わずに他の指標よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-05T05:04:14Z) - SummPip: Unsupervised Multi-Document Summarization with Sentence Graph
Compression [61.97200991151141]
SummPipはマルチドキュメント要約のための教師なしの手法である。
元の文書を文グラフに変換し、言語表現と深層表現の両方を考慮に入れます。
次に、スペクトルクラスタリングを適用して複数の文のクラスタを取得し、最後に各クラスタを圧縮して最終的な要約を生成する。
論文 参考訳(メタデータ) (2020-07-17T13:01:15Z) - Unsupervised Opinion Summarization with Noising and Denoising [85.49169453434554]
ユーザレビューのコーパスから合成データセットを作成し、レビューをサンプリングし、要約のふりをして、ノイズのあるバージョンを生成します。
テスト時に、モデルは本物のレビューを受け入れ、健全な意見を含む要約を生成し、合意に達しないものをノイズとして扱います。
論文 参考訳(メタデータ) (2020-04-21T16:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。