論文の概要: Incremental Extractive Opinion Summarization Using Cover Trees
- arxiv url: http://arxiv.org/abs/2401.08047v2
- Date: Fri, 12 Apr 2024 16:13:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 19:16:06.761127
- Title: Incremental Extractive Opinion Summarization Using Cover Trees
- Title(参考訳): 被覆木を用いたインクリメンタル抽出オピニオン要約
- Authors: Somnath Basu Roy Chowdhury, Nicholas Monath, Avinava Dubey, Manzil Zaheer, Andrew McCallum, Amr Ahmed, Snigdha Chaturvedi,
- Abstract要約: オンラインマーケットプレースでは、ユーザレビューは時間とともに蓄積され、意見要約を定期的に更新する必要がある。
本研究では,漸進的な環境下での抽出的意見要約の課題について検討する。
本稿では,CentroidRankの要約をインクリメンタルな設定で正確に計算するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 81.59625423421355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extractive opinion summarization involves automatically producing a summary of text about an entity (e.g., a product's reviews) by extracting representative sentences that capture prevalent opinions in the review set. Typically, in online marketplaces user reviews accumulate over time, and opinion summaries need to be updated periodically to provide customers with up-to-date information. In this work, we study the task of extractive opinion summarization in an incremental setting, where the underlying review set evolves over time. Many of the state-of-the-art extractive opinion summarization approaches are centrality-based, such as CentroidRank (Radev et al., 2004; Chowdhury et al., 2022). CentroidRank performs extractive summarization by selecting a subset of review sentences closest to the centroid in the representation space as the summary. However, these methods are not capable of operating efficiently in an incremental setting, where reviews arrive one at a time. In this paper, we present an efficient algorithm for accurately computing the CentroidRank summaries in an incremental setting. Our approach, CoverSumm, relies on indexing review representations in a cover tree and maintaining a reservoir of candidate summary review sentences. CoverSumm's efficacy is supported by a theoretical and empirical analysis of running time. Empirically, on a diverse collection of data (both real and synthetically created to illustrate scaling considerations), we demonstrate that CoverSumm is up to 36x faster than baseline methods, and capable of adapting to nuanced changes in data distribution. We also conduct human evaluations of the generated summaries and find that CoverSumm is capable of producing informative summaries consistent with the underlying review set.
- Abstract(参考訳): 抽出的意見要約は、エンティティ(例えば製品レビュー)に関するテキストの要約を自動的に生成し、レビューセットで一般的な意見をキャプチャする代表文を抽出する。
通常、オンラインマーケットプレースでは、ユーザレビューは時間とともに蓄積され、最新の情報を提供するためには、意見要約を定期的に更新する必要がある。
そこで本研究では,段階的な視点で意見の要約を抽出する作業について検討し,その基礎となるレビューセットが時間とともに進化していくことを示す。
CentroidRank (Radev et al , 2004; Chowdhury et al , 2022) など、最先端の抽出的意見要約アプローチの多くは中心性に基づくものである。
CentroidRankは、表現空間におけるセントロイドに最も近いレビュー文のサブセットを要約として選択して抽出的な要約を行う。
しかし、これらの手法は、レビューが1回に1回到着するインクリメンタルな設定では、効率的に動作できない。
本稿では,CentroidRankの要約をインクリメンタルな設定で正確に計算するアルゴリズムを提案する。
提案手法であるCoverSummは、表木におけるレビュー表現の索引付けと、候補の要約レビュー文の保存に頼っている。
CoverSummの有効性は、実行時間の理論的かつ実証的な分析によって支持される。
経験的に、さまざまなデータコレクション(スケーリングの考慮事項を説明するために、実と合成の両方で作成された)において、CoverSummがベースライン法よりも最大36倍高速で、データ分散の微妙な変化に適応できることを実証する。
また、生成した要約の人間による評価を行い、CoverSummは、基礎となるレビューセットと整合した情報的要約を生成することができることを示した。
関連論文リスト
- GLIMPSE: Pragmatically Informative Multi-Document Summarization for Scholarly Reviews [25.291384842659397]
本稿では,学術レビューの簡潔かつ包括的概要を提供するための要約手法であるsysを紹介する。
従来のコンセンサスに基づく手法とは異なり、sysは共通の意見とユニークな意見の両方をレビューから抽出する。
論文 参考訳(メタデータ) (2024-06-11T15:27:01Z) - Hierarchical Indexing for Retrieval-Augmented Opinion Summarization [60.5923941324953]
本稿では,抽出アプローチの帰属性と拡張性と,大規模言語モデル(LLM)の一貫性と拡散性を組み合わせた,教師なし抽象的意見要約手法を提案する。
我々の方法であるHIROは、意味的に整理された離散的な階層を通して文を経路にマッピングするインデックス構造を学習する。
推測時にインデックスを投入し、入力レビューから人気意見を含む文群を識別し、検索する。
論文 参考訳(メタデータ) (2024-03-01T10:38:07Z) - SummIt: Iterative Text Summarization via ChatGPT [12.966825834765814]
本稿では,ChatGPTのような大規模言語モデルに基づく反復的なテキスト要約フレームワークSummItを提案する。
我々のフレームワークは、自己評価とフィードバックによって生成された要約を反復的に洗練することを可能にする。
また, 繰り返し改良の有効性を検証し, 過補正の潜在的な問題を特定するために, 人間の評価を行う。
論文 参考訳(メタデータ) (2023-05-24T07:40:06Z) - Attributable and Scalable Opinion Summarization [79.87892048285819]
我々は、頻繁なエンコーディングを復号することで抽象的な要約を生成し、同じ頻繁なエンコーディングに割り当てられた文を選択して抽出的な要約を生成する。
本手法は,要約プロセスの一部として要約を生成するために使用される文を同定するため,帰属的手法である。
なぜなら、アグリゲーションはトークンの長いシーケンスではなく、潜在空間で実行されるからである。
論文 参考訳(メタデータ) (2023-05-19T11:30:37Z) - Unsupervised Opinion Summarisation in the Wasserstein Space [22.634245146129857]
We present WassOS, an unsupervised abstractive summarization model that makes using the Wasserstein distance。
我々は、WassOSがROUGEメトリクスの最先端をほぼ常に上回り、人間の評価による最高のサマリーを一貫して生成していることを示します。
論文 参考訳(メタデータ) (2022-11-27T19:45:38Z) - Podcast Summary Assessment: A Resource for Evaluating Summary Assessment
Methods [42.08097583183816]
本稿では,新たなデータセット,ポッドキャスト要約評価コーパスについて述べる。
このデータセットには、2つのユニークな側面がある: (i)ロングインプット、音声ポッドキャストベース、文書; (ii)ポッドキャストコーパスにおける不適切な参照要約を検出する機会。
論文 参考訳(メタデータ) (2022-08-28T18:24:41Z) - SNaC: Coherence Error Detection for Narrative Summarization [73.48220043216087]
SNaCは長文の微粒化アノテーションに根ざした物語コヒーレンス評価フレームワークである。
本稿では,生成した物語要約におけるコヒーレンスエラーの分類法を開発し,150冊の本や映画の脚本要約にまたがる6.6k文のスパンレベルアノテーションを収集する。
我々の研究は、最先端の要約モデルによって生成されるコヒーレンスエラーの最初の特徴と、群衆アノテータからコヒーレンス判断を引き出すためのプロトコルを提供する。
論文 参考訳(メタデータ) (2022-05-19T16:01:47Z) - Learning Opinion Summarizers by Selecting Informative Reviews [81.47506952645564]
31,000以上の製品のユーザレビューと組み合わせた大規模な要約データセットを収集し、教師付きトレーニングを可能にします。
多くのレビューの内容は、人間が書いた要約には反映されず、したがってランダムなレビューサブセットで訓練された要約者は幻覚する。
我々は、これらのサブセットで表現された意見を要約し、レビューの情報的サブセットを選択するための共同学習としてタスクを定式化する。
論文 参考訳(メタデータ) (2021-09-09T15:01:43Z) - What Makes a Good Summary? Reconsidering the Focus of Automatic
Summarization [49.600619575148706]
フィールドの現在の焦点は、参加者の希望と完全に一致していないことがわかります。
以上の結果から,自動要約のより広い視点を取り入れることが重要であると論じる。
論文 参考訳(メタデータ) (2020-12-14T15:12:35Z) - Align then Summarize: Automatic Alignment Methods for Summarization
Corpus Creation [8.029049649310211]
自動テキスト要約の最先端は、主にニュース記事を中心に展開されている。
我々の研究は、ニューラル・サマリゼーションに適したデータセットを得るために、レポートに関するセグメンテーションとコーディネートから構成される。
本報告では, 連携した公開ミーティングの新たなコーパスにおいて, 自動アライメントと要約性能について報告する。
論文 参考訳(メタデータ) (2020-07-15T17:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。