論文の概要: MRCBert: A Machine Reading ComprehensionApproach for Unsupervised
Summarization
- arxiv url: http://arxiv.org/abs/2105.00239v1
- Date: Sat, 1 May 2021 12:57:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 08:02:35.897047
- Title: MRCBert: A Machine Reading ComprehensionApproach for Unsupervised
Summarization
- Title(参考訳): mrcbert:unsupervised summarizationのための機械読解approach
- Authors: Saurabh Jain, Guokai Tang, Lim Sze Chi
- Abstract要約: 製品レビューから要約を生成する新しい教師なし手法であるMRCBertを紹介する。
既存のモデルと転送学習を用いて合理的な性能が得られることを示す。
MRCBertはタスク固有のデータセットを必要としません。
- 参考スコア(独自算出の注目度): 0.6629765271909505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When making an online purchase, it becomes important for the customer to read
the product reviews carefully and make a decision based on that. However,
reviews can be lengthy, may contain repeated, or sometimes irrelevant
information that does not help in decision making. In this paper, we introduce
MRCBert, a novel unsupervised method to generate summaries from product
reviews. We leverage Machine Reading Comprehension, i.e. MRC, approach to
extract relevant opinions and generate both rating-wise and aspect-wise
summaries from reviews. Through MRCBert we show that we can obtain reasonable
performance using existing models and transfer learning, which can be useful
for learning under limited or low resource scenarios. We demonstrated our
results on reviews of a product from the Electronics category in the Amazon
Reviews dataset. Our approach is unsupervised as it does not require any
domain-specific dataset, such as the product review dataset, for training or
fine-tuning. Instead, we have used SQuAD v1.1 dataset only to fine-tune BERT
for the MRC task. Since MRCBert does not require a task-specific dataset, it
can be easily adapted and used in other domains.
- Abstract(参考訳): オンライン購入を行う場合、顧客が製品レビューを注意深く読み、それに基づいて意思決定を行うことが重要になる。
しかし、レビューは長いり、繰り返し含まれたり、時には意思決定に役立たない情報を含むこともある。
本稿では,製品レビューから要約を生成する新しい教師なし手法であるMRCBertを紹介する。
私たちはMachine Reading Comprehensionを活用しています。
mrc: 関連する意見を抽出し、レビューから評価と側面的な要約の両方を生成するアプローチ。
mrcbertを通じて,既存のモデルと転送学習を用いて合理的なパフォーマンスを得ることができ,限られたリソースシナリオや低いリソースシナリオ下での学習に有用であることを示す。
Amazon ReviewsデータセットのElectronicsカテゴリからの製品レビューの結果を実演した。
私たちのアプローチは、トレーニングや微調整のために、製品レビューデータセットなどのドメイン固有のデータセットを必要としないため、教師なしです。
代わりに、SQuAD v1.1データセットを使用して、MRCタスクのためにBERTを微調整しました。
MRCBertはタスク固有のデータセットを必要としないため、他のドメインで簡単に適用および使用することができる。
関連論文リスト
- LFOSum: Summarizing Long-form Opinions with Large Language Models [7.839083566878183]
本稿では,(1)長文ユーザレビューの新しいデータセット,(1)1000以上のレビューを含むエンティティ,(2)長期入力にスケールする2つのトレーニングフリーLCMベースの要約アプローチ,(3)自動評価指標を紹介する。
ユーザレビューのデータセットは、ドメインの専門家による詳細な、偏見のない批判的な要約と組み合わせられ、評価の基準として役立ちます。
我々の評価では、LLMは長文要約における感情と形式順守のバランスをとる上で依然として課題に直面しているが、オープンソースモデルでは、関連する情報が集中的に検索される場合のギャップを狭めることができる。
論文 参考訳(メタデータ) (2024-10-16T20:52:39Z) - Product Description and QA Assisted Self-Supervised Opinion Summarization [31.58787780698375]
eコマースでは、意見要約は製品レビューに見られる意見のコンセンサスを要約するプロセスである。
本稿では,レビューからの情報を活用する新しい合成データセット作成(SDC)戦略と,レビューの1つを疑似要約として選択し,教師付きトレーニングを実現するための追加情報源を提案する。
提案するOpinion Summarization (MEDOS) 用マルチエンコーダデコーダフレームワークでは,各ソースに別個のエンコーダを用いて,要約を生成しながら情報の選択を効果的に行う。
論文 参考訳(メタデータ) (2024-04-08T07:15:06Z) - Self-Supervised Contrastive BERT Fine-tuning for Fusion-based
Reviewed-Item Retrieval [12.850360384298712]
我々は、クエリをドキュメントにマッチさせるニューラルネットワーク検索(IR)手法を、項目をレビューするタスクに拡張する。
我々は,クエリとレビューの両方に対して,BERT埋め込みのコントラスト学習に自己教師付き手法を用いる。
レイトフュージョンのシナリオにおける対照的な学習について、同じ項目および/または同じ評価の正のレビューサンプルの使用について検討する。
よりエンドツーエンドのEarly Fusionアプローチでは、レビューを単一項目の埋め込みに融合するために、対照的なアイテム埋め込み学習を導入します。
論文 参考訳(メタデータ) (2023-08-01T18:01:21Z) - Towards Personalized Review Summarization by Modeling Historical Reviews
from Customer and Product Separately [59.61932899841944]
レビュー要約(review summarization)は、Eコマースのウェブサイトで製品レビューのメインの考え方を要約することを目的とした、簡単ではないタスクである。
Heterogeneous Historical Review aware Review Summarization Model (HHRRS)を提案する。
我々は、レビュー感情分類と要約を共同で行うマルチタスクフレームワークを採用している。
論文 参考訳(メタデータ) (2023-01-27T12:32:55Z) - Efficient Few-Shot Fine-Tuning for Opinion Summarization [83.76460801568092]
抽象的な要約モデルは、典型的には大量のジェネリックテキストで事前訓練され、数万から数十万の注釈付きサンプルで微調整される。
アダプタをベースとした数ショット法では,ドメイン内の知識を容易に保存できることを示す。
この自己教師型アダプタの事前トレーニングにより,AmazonとYelpのデータセット上の2.0および1.3ROUGE-Lポイントの要約品質が向上することを示す。
論文 参考訳(メタデータ) (2022-05-04T16:38:37Z) - Learning Opinion Summarizers by Selecting Informative Reviews [81.47506952645564]
31,000以上の製品のユーザレビューと組み合わせた大規模な要約データセットを収集し、教師付きトレーニングを可能にします。
多くのレビューの内容は、人間が書いた要約には反映されず、したがってランダムなレビューサブセットで訓練された要約者は幻覚する。
我々は、これらのサブセットで表現された意見を要約し、レビューの情報的サブセットを選択するための共同学習としてタスクを定式化する。
論文 参考訳(メタデータ) (2021-09-09T15:01:43Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Unsupervised Opinion Summarization with Noising and Denoising [85.49169453434554]
ユーザレビューのコーパスから合成データセットを作成し、レビューをサンプリングし、要約のふりをして、ノイズのあるバージョンを生成します。
テスト時に、モデルは本物のレビューを受け入れ、健全な意見を含む要約を生成し、合意に達しないものをノイズとして扱います。
論文 参考訳(メタデータ) (2020-04-21T16:54:57Z) - ORB: An Open Reading Benchmark for Comprehensive Evaluation of Machine
Reading Comprehension [53.037401638264235]
我々は,7種類の読解データセットの性能を報告する評価サーバORBを提案する。
評価サーバは、モデルのトレーニング方法に制限を課さないため、トレーニングパラダイムや表現学習の探索に適したテストベッドである。
論文 参考訳(メタデータ) (2019-12-29T07:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。