論文の概要: Unsupervised Abstractive Opinion Summarization by Generating Sentences
with Tree-Structured Topic Guidance
- arxiv url: http://arxiv.org/abs/2106.08007v1
- Date: Tue, 15 Jun 2021 09:37:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-17 00:36:52.558541
- Title: Unsupervised Abstractive Opinion Summarization by Generating Sentences
with Tree-Structured Topic Guidance
- Title(参考訳): 木構造トピック誘導による文生成による教師なし抽象的意見要約
- Authors: Masaru Isonuma, Junichiro Mori, Danushka Bollegala, Ichiro Sakata
- Abstract要約: 本稿では,意見文の非教師的抽象要約手法を提案する。
我々は,木構造した話題指導文を生成し,そこでは根文が一般的な内容を伝達し,葉文が特定の話題を記述する。
実験の結果, 生成した話題文は, 意見文の要約として適切であることが確認された。
- 参考スコア(独自算出の注目度): 23.58983944414173
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel unsupervised abstractive summarization method for
opinionated texts. While the basic variational autoencoder-based models assume
a unimodal Gaussian prior for the latent code of sentences, we alternate it
with a recursive Gaussian mixture, where each mixture component corresponds to
the latent code of a topic sentence and is mixed by a tree-structured topic
distribution. By decoding each Gaussian component, we generate sentences with
tree-structured topic guidance, where the root sentence conveys generic
content, and the leaf sentences describe specific topics. Experimental results
demonstrate that the generated topic sentences are appropriate as a summary of
opinionated texts, which are more informative and cover more input contents
than those generated by the recent unsupervised summarization model
(Bra\v{z}inskas et al., 2020). Furthermore, we demonstrate that the variance of
latent Gaussians represents the granularity of sentences, analogous to Gaussian
word embedding (Vilnis and McCallum, 2015).
- Abstract(参考訳): 本稿では,意見文の教師なし抽象要約手法を提案する。
基本変分オートエンコーダに基づくモデルは、文の潜在コードに先立って一様ガウス型を仮定するが、各混合成分がトピック文の潜在コードに対応し、木構造されたトピック分布によって混合される再帰ガウス型混合型に置き換える。
それぞれのガウス成分を復号化することにより、ルート文が一般的な内容を伝達し、葉文が特定のトピックを記述する木構造的なトピックガイダンスを持つ文を生成する。
実験の結果,生成した話題文は,近年の教師なし要約モデル (Bra\v{z}inskas et al., 2020) で生成されたものよりも,より情報的かつ多くの入力内容をカバーする,意見文の要約として適切であることが確認された。
さらに, 潜在ガウス語の分散は文の粒度を表しており, ガウス語の単語埋め込み(vilnis and mccallum, 2015)と類似している。
関連論文リスト
- Attributable and Scalable Opinion Summarization [79.87892048285819]
我々は、頻繁なエンコーディングを復号することで抽象的な要約を生成し、同じ頻繁なエンコーディングに割り当てられた文を選択して抽出的な要約を生成する。
本手法は,要約プロセスの一部として要約を生成するために使用される文を同定するため,帰属的手法である。
なぜなら、アグリゲーションはトークンの長いシーケンスではなく、潜在空間で実行されるからである。
論文 参考訳(メタデータ) (2023-05-19T11:30:37Z) - DiffuSum: Generation Enhanced Extractive Summarization with Diffusion [14.930704950433324]
抽出要約は、ソース文書から直接文章を抽出することで要約を形成することを目的としている。
本稿では,抽出要約のための新しいパラダイムであるDiffuSumを提案する。
実験結果から, ROUGEスコアが44.83/22.56/40.56$のCNN/DailyMailにおけるDiffuSumの抽出結果が得られた。
論文 参考訳(メタデータ) (2023-05-02T19:09:16Z) - Unsupervised Opinion Summarisation in the Wasserstein Space [22.634245146129857]
We present WassOS, an unsupervised abstractive summarization model that makes using the Wasserstein distance。
我々は、WassOSがROUGEメトリクスの最先端をほぼ常に上回り、人間の評価による最高のサマリーを一貫して生成していることを示します。
論文 参考訳(メタデータ) (2022-11-27T19:45:38Z) - Summarization Programs: Interpretable Abstractive Summarization with
Neural Modular Trees [89.60269205320431]
現在の抽象的要約モデルは明確な解釈可能性の欠如に悩まされるか、あるいは不完全理性を与える。
本稿では,バイナリツリーの(順序付き)リストからなる解釈可能なモジュラーフレームワークであるSummarization Program (SP)を提案する。
要約プログラムは、要約文毎に1つのルートノードを含み、各要約文と文書文を個別のツリーで接続する。
論文 参考訳(メタデータ) (2022-09-21T16:50:22Z) - Unsupervised Opinion Summarization Using Approximate Geodesics [38.19696482602788]
我々は,未指導の抽出的意見要約を行う新しいシステムであるGeoSumm(GeoSumm)を紹介する。
GeoSummはエンコーダ-デコーダに基づく表現学習モデルで、潜在意味単位上の分布としてテキストの表現を生成する。
我々はこれらの表現を用いて、新しい測地線距離に基づくスコアリング機構を用いて、レビュー文の妥当性を定量化する。
論文 参考訳(メタデータ) (2022-09-15T17:37:08Z) - Unsupervised Summarization with Customized Granularities [76.26899748972423]
本稿では,最初の教師なし多粒度要約フレームワークであるGranuSumを提案する。
異なる数のイベントを入力することで、GranuSumは教師なしの方法で複数の粒度のサマリーを生成することができる。
論文 参考訳(メタデータ) (2022-01-29T05:56:35Z) - Disentangled Sequence to Sequence Learning for Compositional
Generalization [62.954842223732435]
本稿では,ソース入力を適応的に再符号化することで,不整合表現の学習を可能にするシーケンス・ツー・シーケンス・モデルの拡張を提案する。
意味解析と機械翻訳の実験結果から,提案手法はより不整合な表現とより優れた一般化をもたらすことが示された。
論文 参考訳(メタデータ) (2021-10-09T22:27:19Z) - Lexically-constrained Text Generation through Commonsense Knowledge
Extraction and Injection [62.071938098215085]
我々は、ある入力概念のセットに対して妥当な文を生成することを目的としているcommongenベンチマークに焦点を当てる。
生成したテキストの意味的正しさを高めるための戦略を提案する。
論文 参考訳(メタデータ) (2020-12-19T23:23:40Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。