論文の概要: Unsupervised Opinion Summarisation in the Wasserstein Space
- arxiv url: http://arxiv.org/abs/2211.14923v1
- Date: Sun, 27 Nov 2022 19:45:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 15:12:56.965537
- Title: Unsupervised Opinion Summarisation in the Wasserstein Space
- Title(参考訳): ワッサーシュタイン空間における教師なしオピニオン要約
- Authors: Jiayu Song, Iman Munire Bilal, Adam Tsakalidis, Rob Procter, Maria
Liakata
- Abstract要約: We present WassOS, an unsupervised abstractive summarization model that makes using the Wasserstein distance。
我々は、WassOSがROUGEメトリクスの最先端をほぼ常に上回り、人間の評価による最高のサマリーを一貫して生成していることを示します。
- 参考スコア(独自算出の注目度): 22.634245146129857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Opinion summarisation synthesises opinions expressed in a group of documents
discussing the same topic to produce a single summary. Recent work has looked
at opinion summarisation of clusters of social media posts. Such posts are
noisy and have unpredictable structure, posing additional challenges for the
construction of the summary distribution and the preservation of meaning
compared to online reviews, which has been so far the focus of opinion
summarisation. To address these challenges we present \textit{WassOS}, an
unsupervised abstractive summarization model which makes use of the Wasserstein
distance. A Variational Autoencoder is used to get the distribution of
documents/posts, and the distributions are disentangled into separate semantic
and syntactic spaces. The summary distribution is obtained using the
Wasserstein barycenter of the semantic and syntactic distributions. A latent
variable sampled from the summary distribution is fed into a GRU decoder with a
transformer layer to produce the final summary. Our experiments on multiple
datasets including Twitter clusters, Reddit threads, and reviews show that
WassOS almost always outperforms the state-of-the-art on ROUGE metrics and
consistently produces the best summaries with respect to meaning preservation
according to human evaluations.
- Abstract(参考訳): 意見要約は、同じトピックについて議論する文書のグループで表現された意見を合成し、単一の要約を生成する。
最近の研究は、ソーシャルメディア投稿の集合の要約を考察している。
このような投稿は騒々しく、予測不可能な構造であり、これまでの意見要約の焦点であったオンラインレビューに比べて、要約配信の構築や意味の保存にさらなる課題が生じる。
これらの課題に対処するために、ワッサーシュタイン距離を利用する教師なし抽象的要約モデルであるtextit{WassOS} を提示する。
変分オートエンコーダは文書/ポストの分布を得るために使われ、分布は別々の意味空間と構文空間に分離される。
要約分布は、意味分布と構文分布のwasserstein barycenterを用いて得られる。
要約分布からサンプリングされた潜伏変数を変圧器層付きGRUデコーダに供給して最終要約を生成する。
Twitterクラスタ、Redditスレッド、レビューを含む複数のデータセットに関する我々の実験は、WassOSがROUGEメトリクスの最先端をほぼ常に上回り、人間の評価による意味保存に関する最高の要約を一貫して生成していることを示している。
関連論文リスト
- Hierarchical Indexing for Retrieval-Augmented Opinion Summarization [60.5923941324953]
本稿では,抽出アプローチの帰属性と拡張性と,大規模言語モデル(LLM)の一貫性と拡散性を組み合わせた,教師なし抽象的意見要約手法を提案する。
我々の方法であるHIROは、意味的に整理された離散的な階層を通して文を経路にマッピングするインデックス構造を学習する。
推測時にインデックスを投入し、入力レビューから人気意見を含む文群を識別し、検索する。
論文 参考訳(メタデータ) (2024-03-01T10:38:07Z) - Incremental Extractive Opinion Summarization Using Cover Trees [81.59625423421355]
オンラインマーケットプレースでは、ユーザレビューは時間とともに蓄積され、意見要約を定期的に更新する必要がある。
本研究では,漸進的な環境下での抽出的意見要約の課題について検討する。
本稿では,CentroidRankの要約をインクリメンタルな設定で正確に計算するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-16T02:00:17Z) - AugSumm: towards generalizable speech summarization using synthetic
labels from large language model [61.73741195292997]
抽象音声要約(SSUM)は、音声から人間に似た要約を生成することを目的としている。
従来のSSUMモデルは、主に、人間による注釈付き決定論的要約(英語版)を用いて訓練され、評価されている。
AugSummは,人間のアノテータが拡張要約を生成するためのプロキシとして,大規模言語モデル(LLM)を利用する手法である。
論文 参考訳(メタデータ) (2024-01-10T18:39:46Z) - Efficient and Interpretable Compressive Text Summarisation with
Unsupervised Dual-Agent Reinforcement Learning [36.93582300019002]
教師なし二重エージェント強化学習を用いた効率よく解釈可能な圧縮要約法を提案する。
本モデルでは,ROUGE 測定値を用いて,有望な性能と,Newsroom の大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-06-06T05:30:49Z) - SNaC: Coherence Error Detection for Narrative Summarization [73.48220043216087]
SNaCは長文の微粒化アノテーションに根ざした物語コヒーレンス評価フレームワークである。
本稿では,生成した物語要約におけるコヒーレンスエラーの分類法を開発し,150冊の本や映画の脚本要約にまたがる6.6k文のスパンレベルアノテーションを収集する。
我々の研究は、最先端の要約モデルによって生成されるコヒーレンスエラーの最初の特徴と、群衆アノテータからコヒーレンス判断を引き出すためのプロトコルを提供する。
論文 参考訳(メタデータ) (2022-05-19T16:01:47Z) - Unsupervised Extractive Opinion Summarization Using Sparse Coding [19.598936651505067]
本稿では,セマンティック・オートエンコーダ(Semantic Autoencoder,SemAE)について,教師なしの方法で抽出的意見要約を行う。
SemAEは辞書学習を使用して、レビューから暗黙的に意味情報をキャプチャし、各文のセマンティック単位に対する潜在表現を学習する。
本研究では,SPACE と AMAZON のデータセット上での強い性能について報告する。
論文 参考訳(メタデータ) (2022-03-15T14:03:35Z) - Unsupervised Summarization with Customized Granularities [76.26899748972423]
本稿では,最初の教師なし多粒度要約フレームワークであるGranuSumを提案する。
異なる数のイベントを入力することで、GranuSumは教師なしの方法で複数の粒度のサマリーを生成することができる。
論文 参考訳(メタデータ) (2022-01-29T05:56:35Z) - Reinforcing Semantic-Symmetry for Document Summarization [15.113768658584979]
文書要約は、長い文書を詳細な情報と正確な意味記述を備えた短いバージョンに凝縮する。
本稿では,文書要約のための新しいtextbfreinforcing stextbfemantic-textbfsymmetric Learning textbfmodelを提案する。
CNN/Daily MailとBigPatentの2つの大胆なベンチマークデータセットに対して、一連の実験が行われた。
論文 参考訳(メタデータ) (2021-12-14T17:41:37Z) - AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer
Summarization [73.91543616777064]
Stack OverflowやYahoo!のようなコミュニティ質問回答(CQA)フォーラムには、幅広いコミュニティベースの質問に対する回答の豊富なリソースが含まれている。
回答の要約の1つのゴールは、回答の視点の範囲を反映した要約を作成することである。
本研究は,専門言語学者による解答要約のための4,631個のCQAスレッドからなる新しいデータセットを導入する。
論文 参考訳(メタデータ) (2021-11-11T21:48:02Z) - Semantic Extractor-Paraphraser based Abstractive Summarization [40.05739160204135]
本稿では,意味的重複を利用した抽出-パラフレーザーベース抽象要約システムを提案する。
私達のモデルはROUGE、METEORおよび単語の類似性(WMS)の点では最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2021-05-04T05:24:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。