論文の概要: StructSum: Summarization via Structured Representations
- arxiv url: http://arxiv.org/abs/2003.00576v2
- Date: Tue, 16 Feb 2021 18:59:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 12:54:02.915405
- Title: StructSum: Summarization via Structured Representations
- Title(参考訳): StructSum: 構造化表現による要約
- Authors: Vidhisha Balachandran, Artidoro Pagnoni, Jay Yoon Lee, Dheeraj
Rajagopal, Jaime Carbonell, Yulia Tsvetkov
- Abstract要約: 抽象テキスト要約は、長い資料の情報を要約した要約に圧縮することを目的としている。
モデリング技術の進歩にもかかわらず、抽象的な要約モデルは依然としていくつかの重要な課題に悩まされている。
本稿では,これらの課題に対処するための要約のための文書レベルの構造誘導に基づくフレームワークを提案する。
- 参考スコア(独自算出の注目度): 27.890477913486787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abstractive text summarization aims at compressing the information of a long
source document into a rephrased, condensed summary. Despite advances in
modeling techniques, abstractive summarization models still suffer from several
key challenges: (i) layout bias: they overfit to the style of training corpora;
(ii) limited abstractiveness: they are optimized to copying n-grams from the
source rather than generating novel abstractive summaries; (iii) lack of
transparency: they are not interpretable. In this work, we propose a framework
based on document-level structure induction for summarization to address these
challenges. To this end, we propose incorporating latent and explicit
dependencies across sentences in the source document into end-to-end
single-document summarization models. Our framework complements standard
encoder-decoder summarization models by augmenting them with rich
structure-aware document representations based on implicitly learned (latent)
structures and externally-derived linguistic (explicit) structures. We show
that our summarization framework, trained on the CNN/DM dataset, improves the
coverage of content in the source documents, generates more abstractive
summaries by generating more novel n-grams, and incorporates interpretable
sentence-level structures, while performing on par with standard baselines.
- Abstract(参考訳): abstractive text summarizationは、長いソースドキュメントの情報を要約された要約に圧縮することを目的としている。
モデリング技術の進歩にもかかわらず、抽象要約モデルは依然としていくつかの重要な課題を抱えている。
(i)レイアウトバイアス:コーパスのトレーニングスタイルに過度に適合する
(ii)限定的な抽象性:新規の抽象要約を生成するのではなく、ソースからn-gramをコピーするよう最適化されている。
(iii)透明性の欠如:解釈できない。
本研究では,これらの課題に対処するための要約のための文書レベルの構造誘導に基づくフレームワークを提案する。
そこで本研究では,ソース文書中の文間の潜在および明示的な依存関係を,エンドツーエンドの単一文書要約モデルに組み込む手法を提案する。
本稿では,標準エンコーダ・デコーダ要約モデルを補完し,暗黙的に学習された(相対的な)構造と外部から派生した言語的(説明的)構造に基づくリッチな構造認識文書表現で補完する。
CNN/DMデータセットに基づいてトレーニングされた要約フレームワークは、ソース文書のコンテンツカバレッジを改善し、より斬新なn-gramを生成することでより抽象的な要約を生成し、標準ベースラインと同等の文レベル構造を組み込む。
関連論文リスト
- Personalized Video Summarization using Text-Based Queries and Conditional Modeling [3.4447129363520337]
この論文は、テキストベースのクエリと条件付きモデリングを統合することで、ビデオ要約の強化を探求する。
精度やF1スコアなどの評価指標は、生成された要約の品質を評価する。
論文 参考訳(メタデータ) (2024-08-27T02:43:40Z) - Controllable Topic-Focused Abstractive Summarization [57.8015120583044]
制御された抽象的な要約は、特定の側面をカバーするために、ソース記事の凝縮したバージョンを作成することに焦点を当てる。
本稿では,トピックに着目した要約を生成可能なトランスフォーマーアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-12T03:51:38Z) - Enriching Transformers with Structured Tensor-Product Representations
for Abstractive Summarization [131.23966358405767]
抽象的な要約のタスクに対して,明示的に構成された製品表現(TPR)をTP-TRANSFORMERに適用する。
モデルの主な特徴は、トークンごとに2つの別々の表現を符号化することで導入する構造バイアスである。
本稿では,TP-TRANSFORMER が Transformer と TP-TRANSFORMER より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-02T17:32:33Z) - BASS: Boosting Abstractive Summarization with Unified Semantic Graph [49.48925904426591]
BASSは、統合されたセマンティックグラフに基づく抽象的な要約を促進するためのフレームワークである。
文書表現と要約生成の両方を改善するために,グラフベースのエンコーダデコーダモデルを提案する。
実験結果から,提案アーキテクチャは長期文書および複数文書要約タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2021-05-25T16:20:48Z) - Topic-Guided Abstractive Text Summarization: a Joint Learning Approach [19.623946402970933]
本稿では,抽象テキスト要約のための新しいアプローチ,トピックガイドによる抽象要約を提案する。
ニューラルネットワークをTransformerベースのシーケンス・ツー・シーケンス(seq2seq)モデルに結合学習フレームワークに組み込むことが目的だ。
論文 参考訳(メタデータ) (2020-10-20T14:45:25Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Leveraging Graph to Improve Abstractive Multi-Document Summarization [50.62418656177642]
我々は、文書のよく知られたグラフ表現を活用することができる、抽象的多文書要約(MDS)モデルを開発する。
本モデルでは,長い文書の要約に欠かせない文書間関係を捉えるために,文書の符号化にグラフを利用する。
また,このモデルでは,要約生成プロセスの導出にグラフを利用することが可能であり,一貫性と簡潔な要約を生成するのに有用である。
論文 参考訳(メタデータ) (2020-05-20T13:39:47Z) - Knowledge Graph-Augmented Abstractive Summarization with Semantic-Driven
Cloze Reward [42.925345819778656]
本稿では,グラフ拡張と意味駆動型RewarDによる抽象要約のための新しいフレームワークであるASGARDを紹介する。
本稿では,2つのエンコーダ(シーケンシャル文書エンコーダ)とグラフ構造化エンコーダ(グラフ構造化エンコーダ)の利用を提案する。
その結果、我々のモデルは、New York TimesとCNN/Daily Mailのデータセットからの入力として、知識グラフのない変種よりもはるかに高いROUGEスコアを生成することがわかった。
論文 参考訳(メタデータ) (2020-05-03T18:23:06Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z) - Selective Attention Encoders by Syntactic Graph Convolutional Networks
for Document Summarization [21.351111598564987]
本稿では,文書中の文から解析木を接続するグラフを提案し,文書の構文表現を学習するために重ねられたグラフ畳み込みネットワーク(GCN)を利用する。
提案したGCNによる選択的アテンションアプローチは,ベースラインよりも優れ,データセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-03-18T01:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。