論文の概要: ACM -- Attribute Conditioning for Abstractive Multi Document
Summarization
- arxiv url: http://arxiv.org/abs/2205.03978v1
- Date: Mon, 9 May 2022 00:00:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-11 01:32:15.781557
- Title: ACM -- Attribute Conditioning for Abstractive Multi Document
Summarization
- Title(参考訳): acm -- 抽象的マルチドキュメント要約のための属性条件付け
- Authors: Aiswarya Sankar, Ankit Chadha
- Abstract要約: 本稿では,属性条件付きモジュールを組み込んだモデルを提案する。
このアプローチは、ベースラインのマルチドキュメント要約アプローチよりもROUGEスコアが大きく向上することを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Abstractive multi document summarization has evolved as a task through the
basic sequence to sequence approaches to transformer and graph based
techniques. Each of these approaches has primarily focused on the issues of
multi document information synthesis and attention based approaches to extract
salient information. A challenge that arises with multi document summarization
which is not prevalent in single document summarization is the need to
effectively summarize multiple documents that might have conflicting polarity,
sentiment or subjective information about a given topic. In this paper we
propose ACM, attribute conditioned multi document summarization,a model that
incorporates attribute conditioning modules in order to decouple conflicting
information by conditioning for a certain attribute in the output summary. This
approach shows strong gains in ROUGE score over baseline multi document
summarization approaches and shows gains in fluency, informativeness and
reduction in repetitiveness as shown through a human annotation analysis study.
- Abstract(参考訳): 抽象的多文書要約は、トランスフォーマーやグラフベースの手法への塩基配列アプローチによるタスクとして進化してきた。
それぞれのアプローチは、主に多文書情報合成と注意に基づく情報抽出の課題に焦点を当てている。
単一の文書要約において一般的ではない複数の文書要約は、あるトピックに関する対立する極性、感情、主観的な情報を持つ複数の文書を効果的に要約する必要性である。
本稿では,属性条件付きマルチドキュメント要約(acm, attribute conditioned multi document summarization)を提案する。
この手法は, ROUGEスコアにおいて, 基準文書要約手法よりも高い利得を示し, 人間のアノテーション分析研究から示すように, 流布率, 情報性, 繰り返し性の低下の利得を示す。
関連論文リスト
- Unified Multi-Modal Interleaved Document Representation for Information Retrieval [57.65409208879344]
我々は、異なるモダリティでインターリーブされた文書を均等に埋め込み、より包括的でニュアンスのある文書表現を生成する。
具体的には、テキスト、画像、テーブルの処理と統合を統一されたフォーマットと表現に統合する、近年のビジョン言語モデルの能力を活用して、これを実現する。
論文 参考訳(メタデータ) (2024-10-03T17:49:09Z) - Absformer: Transformer-based Model for Unsupervised Multi-Document
Abstractive Summarization [1.066048003460524]
MDS(Multi-document summarization)とは、複数の文書のテキストを簡潔な要約に要約する作業である。
抽象MDSは、自然言語生成技術を用いて、複数の文書の一貫性と流動性を備えた要約を生成することを目的としている。
本稿では、教師なし抽象要約生成のためのトランスフォーマーに基づく新しい手法であるAbsformerを提案する。
論文 参考訳(メタデータ) (2023-06-07T21:18:23Z) - Peek Across: Improving Multi-Document Modeling via Cross-Document
Question-Answering [49.85790367128085]
我々は,事前学習対象に答える新しいクロスドキュメント質問から,汎用的なマルチドキュメントモデルを事前学習する。
この新規なマルチドキュメントQA定式化は、クロステキスト情報関係をよりよく回復させるようモデルに指示する。
分類タスクや要約タスクに焦点を当てた従来のマルチドキュメントモデルとは異なり、事前学習対象の定式化により、短いテキスト生成と長いテキスト生成の両方を含むタスクを実行できる。
論文 参考訳(メタデータ) (2023-05-24T17:48:40Z) - Mining both Commonality and Specificity from Multiple Documents for
Multi-Document Summarization [1.4629756274247374]
多文書要約タスクでは、設計した要約者が、原文書の重要な情報をカバーする短いテキストを生成する必要がある。
本稿では,文書の階層的クラスタリングに基づくマルチドキュメント要約手法を提案する。
論文 参考訳(メタデータ) (2023-03-05T14:25:05Z) - Unsupervised Summarization with Customized Granularities [76.26899748972423]
本稿では,最初の教師なし多粒度要約フレームワークであるGranuSumを提案する。
異なる数のイベントを入力することで、GranuSumは教師なしの方法で複数の粒度のサマリーを生成することができる。
論文 参考訳(メタデータ) (2022-01-29T05:56:35Z) - Modeling Endorsement for Multi-Document Abstractive Summarization [10.166639983949887]
単一文書の要約と多文書の要約の重大な違いは、文書の中で健全なコンテンツがどのように現れるかである。
本稿では,複数文書要約における文書間補完効果とその活用をモデル化する。
提案手法は各文書から合成を生成し,他の文書から有意な内容を識別する支援者として機能する。
論文 参考訳(メタデータ) (2021-10-15T03:55:42Z) - WSL-DS: Weakly Supervised Learning with Distant Supervision for Query
Focused Multi-Document Abstractive Summarization [16.048329028104643]
Query Focused Multi-Document Summarization (QF-MDS)タスクでは、ドキュメントのセットとクエリが与えられ、そこでこれらのドキュメントから要約を生成する。
このタスクの大きな課題のひとつは、ラベル付きトレーニングデータセットの可用性の欠如である。
本稿では,遠隔指導による弱教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-03T02:02:55Z) - SupMMD: A Sentence Importance Model for Extractive Summarization using
Maximum Mean Discrepancy [92.5683788430012]
SupMMDは、カーネルの2サンプルテストと最大の相違点に基づく、ジェネリックおよび更新の要約のための新しいテクニックである。
DUC-2004 および TAC-2009 データセット上での現在の技術状況を満たしたり超えたりすることで,SupMMD の総合的および更新的要約タスクにおける有効性を示す。
論文 参考訳(メタデータ) (2020-10-06T09:26:55Z) - SummPip: Unsupervised Multi-Document Summarization with Sentence Graph
Compression [61.97200991151141]
SummPipはマルチドキュメント要約のための教師なしの手法である。
元の文書を文グラフに変換し、言語表現と深層表現の両方を考慮に入れます。
次に、スペクトルクラスタリングを適用して複数の文のクラスタを取得し、最後に各クラスタを圧縮して最終的な要約を生成する。
論文 参考訳(メタデータ) (2020-07-17T13:01:15Z) - Leveraging Graph to Improve Abstractive Multi-Document Summarization [50.62418656177642]
我々は、文書のよく知られたグラフ表現を活用することができる、抽象的多文書要約(MDS)モデルを開発する。
本モデルでは,長い文書の要約に欠かせない文書間関係を捉えるために,文書の符号化にグラフを利用する。
また,このモデルでは,要約生成プロセスの導出にグラフを利用することが可能であり,一貫性と簡潔な要約を生成するのに有用である。
論文 参考訳(メタデータ) (2020-05-20T13:39:47Z) - A Divide-and-Conquer Approach to the Summarization of Long Documents [4.863209463405628]
本稿では,長い文書のニューラル・サマライゼーションのための分割・畳み込み手法を提案する。
本手法は文書の談話構造を利用して,文の類似性を利用して問題をより小さな要約問題に分割する。
本稿では,シーケンス・ツー・シーケンスのRNNやトランスフォーマーなど,様々な要約モデルと組み合わせることで,要約性能の向上が期待できることを示す。
論文 参考訳(メタデータ) (2020-04-13T20:38:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。