論文の概要: Learning Opinion Summarizers by Selecting Informative Reviews
- arxiv url: http://arxiv.org/abs/2109.04325v1
- Date: Thu, 9 Sep 2021 15:01:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 19:46:38.261535
- Title: Learning Opinion Summarizers by Selecting Informative Reviews
- Title(参考訳): インフォメーションレビューの選択による意見要約の学習
- Authors: Arthur Bra\v{z}inskas, Mirella Lapata, Ivan Titov
- Abstract要約: 31,000以上の製品のユーザレビューと組み合わせた大規模な要約データセットを収集し、教師付きトレーニングを可能にします。
多くのレビューの内容は、人間が書いた要約には反映されず、したがってランダムなレビューサブセットで訓練された要約者は幻覚する。
我々は、これらのサブセットで表現された意見を要約し、レビューの情報的サブセットを選択するための共同学習としてタスクを定式化する。
- 参考スコア(独自算出の注目度): 81.47506952645564
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Opinion summarization has been traditionally approached with unsupervised,
weakly-supervised and few-shot learning techniques. In this work, we collect a
large dataset of summaries paired with user reviews for over 31,000 products,
enabling supervised training. However, the number of reviews per product is
large (320 on average), making summarization - and especially training a
summarizer - impractical. Moreover, the content of many reviews is not
reflected in the human-written summaries, and, thus, the summarizer trained on
random review subsets hallucinates. In order to deal with both of these
challenges, we formulate the task as jointly learning to select informative
subsets of reviews and summarizing the opinions expressed in these subsets. The
choice of the review subset is treated as a latent variable, predicted by a
small and simple selector. The subset is then fed into a more powerful
summarizer. For joint training, we use amortized variational inference and
policy gradient methods. Our experiments demonstrate the importance of
selecting informative reviews resulting in improved quality of summaries and
reduced hallucinations.
- Abstract(参考訳): 意見要約は伝統的に教師なし、弱教師付き、少数ショットの学習技術でアプローチされてきた。
本研究では,ユーザレビューと組み合わせた大規模な要約データセットを31,000以上の製品に対して収集し,教師付きトレーニングを可能にする。
しかし、製品毎のレビュー数(平均して320件)は大きいため、要約(特に要約者を訓練する)は現実的ではない。
また、人間による要約には多くのレビューの内容が反映されず、ランダムなレビューサブセットで訓練された要約者が幻覚する。
これら2つの課題に対処するために、我々はタスクを共同学習として定式化し、レビューの有益なサブセットを選択し、これらのサブセットで表現された意見を要約する。
レビューサブセットの選択は、小さくて単純なセレクタによって予測される潜在変数として扱われる。
その後、サブセットはより強力な要約器に供給される。
共同学習では,不定形変分推論法と政策勾配法を用いる。
本実験は,要約の質の向上と幻覚の低減につながる情報的レビューの選択の重要性を示すものである。
関連論文リスト
- Incremental Extractive Opinion Summarization Using Cover Trees [81.59625423421355]
オンラインマーケットプレースでは、ユーザレビューは時間とともに蓄積され、意見要約を定期的に更新する必要がある。
本研究では,漸進的な環境下での抽出的意見要約の課題について検討する。
本稿では,CentroidRankの要約をインクリメンタルな設定で正確に計算するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-16T02:00:17Z) - Large-Scale and Multi-Perspective Opinion Summarization with Diverse
Review Subsets [23.515892409202344]
SUBSUMMは大規模多視点意見要約のための教師付き要約フレームワークである。
数百のインプットレビューから、プロ、コン、そして検証の要約を生成する。
論文 参考訳(メタデータ) (2023-10-20T08:08:13Z) - OpineSum: Entailment-based self-training for abstractive opinion
summarization [6.584115526134759]
本稿では,抽象的な意見要約のための新しい自己学習手法,OpineSumを提案する。
このアプローチの要約は、テキスト・エンターメントの新たな応用を用いて構築されている。
OpineSumは、両方の設定で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-21T06:20:28Z) - Comparing Methods for Extractive Summarization of Call Centre Dialogue [77.34726150561087]
そこで本稿では,これらの手法を用いて呼の要約を生成し,客観的に評価することにより,実験的な比較を行った。
TopicSum と Lead-N は他の要約法よりも優れており,BERTSum は主観的評価と客観的評価の両方で比較的低いスコアを得た。
論文 参考訳(メタデータ) (2022-09-06T13:16:02Z) - Unsupervised Reference-Free Summary Quality Evaluation via Contrastive
Learning [66.30909748400023]
教師なしコントラスト学習により,参照要約を使わずに要約品質を評価することを提案する。
具体的には、BERTに基づく言語的品質と意味情報の両方をカバーする新しい指標を設計する。
ニューズルームとCNN/デイリーメールの実験では,新たな評価手法が参照サマリーを使わずに他の指標よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-05T05:04:14Z) - Topic Detection and Summarization of User Reviews [6.779855791259679]
本稿では,レビューと要約の両方を解析して,効果的な新しい要約手法を提案する。
製品レビューと約1028の製品からなる新しいデータセットが、AmazonとCNETから収集されている。
論文 参考訳(メタデータ) (2020-05-30T02:19:08Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Unsupervised Opinion Summarization with Noising and Denoising [85.49169453434554]
ユーザレビューのコーパスから合成データセットを作成し、レビューをサンプリングし、要約のふりをして、ノイズのあるバージョンを生成します。
テスト時に、モデルは本物のレビューを受け入れ、健全な意見を含む要約を生成し、合意に達しないものをノイズとして扱います。
論文 参考訳(メタデータ) (2020-04-21T16:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。