論文の概要: Product Description and QA Assisted Self-Supervised Opinion Summarization
- arxiv url: http://arxiv.org/abs/2404.05243v1
- Date: Mon, 8 Apr 2024 07:15:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 18:41:48.766291
- Title: Product Description and QA Assisted Self-Supervised Opinion Summarization
- Title(参考訳): 製品記述とQAによる自己スーパービジョンオピニオン要約
- Authors: Tejpalsingh Siledar, Rupasai Rangaraju, Sankara Sri Raghava Ravindra Muddu, Suman Banerjee, Amey Patil, Sudhanshu Shekhar Singh, Muthusamy Chelliah, Nikesh Garera, Swaprava Nath, Pushpak Bhattacharyya,
- Abstract要約: eコマースでは、意見要約は製品レビューに見られる意見のコンセンサスを要約するプロセスである。
本稿では,レビューからの情報を活用する新しい合成データセット作成(SDC)戦略と,レビューの1つを疑似要約として選択し,教師付きトレーニングを実現するための追加情報源を提案する。
提案するOpinion Summarization (MEDOS) 用マルチエンコーダデコーダフレームワークでは,各ソースに別個のエンコーダを用いて,要約を生成しながら情報の選択を効果的に行う。
- 参考スコア(独自算出の注目度): 31.58787780698375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In e-commerce, opinion summarization is the process of summarizing the consensus opinions found in product reviews. However, the potential of additional sources such as product description and question-answers (QA) has been considered less often. Moreover, the absence of any supervised training data makes this task challenging. To address this, we propose a novel synthetic dataset creation (SDC) strategy that leverages information from reviews as well as additional sources for selecting one of the reviews as a pseudo-summary to enable supervised training. Our Multi-Encoder Decoder framework for Opinion Summarization (MEDOS) employs a separate encoder for each source, enabling effective selection of information while generating the summary. For evaluation, due to the unavailability of test sets with additional sources, we extend the Amazon, Oposum+, and Flipkart test sets and leverage ChatGPT to annotate summaries. Experiments across nine test sets demonstrate that the combination of our SDC approach and MEDOS model achieves on average a 14.5% improvement in ROUGE-1 F1 over the SOTA. Moreover, comparative analysis underlines the significance of incorporating additional sources for generating more informative summaries. Human evaluations further indicate that MEDOS scores relatively higher in coherence and fluency with 0.41 and 0.5 (-1 to 1) respectively, compared to existing models. To the best of our knowledge, we are the first to generate opinion summaries leveraging additional sources in a self-supervised setting.
- Abstract(参考訳): eコマースでは、意見要約は製品レビューに見られる意見の一致を要約するプロセスである。
しかし,製品記述や質問応答 (QA) などの追加ソースの可能性は少なくなっている。
さらに、教師付きトレーニングデータがないため、この作業は困難である。
そこで本研究では,レビューからの情報を活用する新しい合成データセット作成(SDC)戦略と,レビューの1つを疑似要約として選択し,教師付きトレーニングを実現するための追加情報源を提案する。
提案するOpinion Summarization (MEDOS) 用マルチエンコーダデコーダフレームワークでは,各ソースに別個のエンコーダを用いて,要約を生成しながら情報の選択を効果的に行う。
評価のために、追加ソースでテストセットが利用できないため、Amazon、Oposum+、Flipkartテストセットを拡張し、ChatGPTを利用して要約を注釈します。
9つのテストセットでの実験では、SDCアプローチとMEDOSモデルの組み合わせにより、SOTAよりも平均14.5%改良されたROUGE-1 F1が達成されている。
さらに、比較分析は、より情報的な要約を生成するために追加のソースを組み込むことの重要性を浮き彫りにしている。
人間の評価では、MEDOSのコヒーレンスと流速は、既存のモデルと比較して0.41と0.5(-1から1)と比較的高いことが示されている。
我々の知識を最大限に活用するために、我々は、自己監督的な環境で追加のソースを活用する意見要約を初めて生成する。
関連論文リスト
- Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs [70.15262704746378]
我々は,5つの公開データセットと自然言語ユーザフィードバックのためのコヒーレントな要約からなる,体系的に作成された人間アノテーションデータセットを提案する。
Falcon-40BとLlama-2-13Bによる予備的な実験では、コヒーレントなサマリーを生成するという点で大幅な性能向上(10%ルージュ-L)が見られた。
論文 参考訳(メタデータ) (2024-07-05T20:25:04Z) - GUMsley: Evaluating Entity Salience in Summarization for 12 English
Genres [14.37990666928991]
GUMsleyは、12のジャンルの英語テキストに対して、名前付きおよび名前なしの敬意的エンティティを全てカバーする最初のエンティティ・サリエンス・データセットである。
いくつかのモデルアーキテクチャに対して健全なエンティティを予測または提供することにより、パフォーマンスが向上し、高品質なサマリーの導出に役立つことを示す。
論文 参考訳(メタデータ) (2024-01-31T16:30:50Z) - Towards Personalized Review Summarization by Modeling Historical Reviews
from Customer and Product Separately [59.61932899841944]
レビュー要約(review summarization)は、Eコマースのウェブサイトで製品レビューのメインの考え方を要約することを目的とした、簡単ではないタスクである。
Heterogeneous Historical Review aware Review Summarization Model (HHRRS)を提案する。
我々は、レビュー感情分類と要約を共同で行うマルチタスクフレームワークを採用している。
論文 参考訳(メタデータ) (2023-01-27T12:32:55Z) - Investigating Crowdsourcing Protocols for Evaluating the Factual
Consistency of Summaries [59.27273928454995]
要約に適用される現在の事前学習モデルは、ソーステキストを誤って表現したり、外部情報を導入したりする事実上の矛盾がちである。
評価ベースのLikertスケールとランキングベースのBest-Worst Scalingプロトコルを用いた,事実整合性のためのクラウドソーシング評価フレームワークを構築した。
ランキングベースのプロトコルは、データセット間の要約品質をより信頼性の高い尺度を提供するのに対して、Likertレーティングの信頼性はターゲットデータセットと評価設計に依存する。
論文 参考訳(メタデータ) (2021-09-19T19:05:00Z) - Unsupervised Video Summarization via Multi-source Features [4.387757291346397]
ビデオ要約は、オリジナルビデオの本質を伝達するコンパクトだが代表的な視覚的要約を生成することを目的としている。
本稿では,複数の特徴源をチャンクとストライド融合で組み込むことにより,視覚的コンテンツについてより詳細な情報を提供する。
また,TVSumとSumMeの2つのベンチマークを総合的に評価するために,本手法を4つの最先端手法と比較した。
論文 参考訳(メタデータ) (2021-05-26T13:12:46Z) - Convex Aggregation for Opinion Summarization [18.753472191533515]
エンコーダデコーダモデルは、単一レビューを再構築するために訓練され、潜在レビューエンコーディング空間を学習する。
要約時には、潜在レビューベクトルの未重み付き平均を要約に復号する。
本稿では,意見要約のためのconvexベクトル集約フレームワークであるcoopを提案する。
論文 参考訳(メタデータ) (2021-04-03T10:52:14Z) - Unsupervised Reference-Free Summary Quality Evaluation via Contrastive
Learning [66.30909748400023]
教師なしコントラスト学習により,参照要約を使わずに要約品質を評価することを提案する。
具体的には、BERTに基づく言語的品質と意味情報の両方をカバーする新しい指標を設計する。
ニューズルームとCNN/デイリーメールの実験では,新たな評価手法が参照サマリーを使わずに他の指標よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-05T05:04:14Z) - SummEval: Re-evaluating Summarization Evaluation [169.622515287256]
総合的かつ一貫した方法で14の自動評価指標を再評価する。
上記の自動評価指標を用いて,最近の要約モデル23をベンチマークした。
我々は、CNN/DailyMailニュースデータセットでトレーニングされたモデルによって生成された最大の要約コレクションを組み立てる。
論文 参考訳(メタデータ) (2020-07-24T16:25:19Z) - Unsupervised Opinion Summarization with Noising and Denoising [85.49169453434554]
ユーザレビューのコーパスから合成データセットを作成し、レビューをサンプリングし、要約のふりをして、ノイズのあるバージョンを生成します。
テスト時に、モデルは本物のレビューを受け入れ、健全な意見を含む要約を生成し、合意に達しないものをノイズとして扱います。
論文 参考訳(メタデータ) (2020-04-21T16:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。