論文の概要: Selective Attention Encoders by Syntactic Graph Convolutional Networks
for Document Summarization
- arxiv url: http://arxiv.org/abs/2003.08004v1
- Date: Wed, 18 Mar 2020 01:30:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 09:32:01.650338
- Title: Selective Attention Encoders by Syntactic Graph Convolutional Networks
for Document Summarization
- Title(参考訳): 構文グラフ畳み込みネットワークによる文書要約のための選択的注意エンコーダ
- Authors: Haiyang Xu, Yun Wang, Kun Han, Baochang Ma, Junwen Chen, Xiangang Li
- Abstract要約: 本稿では,文書中の文から解析木を接続するグラフを提案し,文書の構文表現を学習するために重ねられたグラフ畳み込みネットワーク(GCN)を利用する。
提案したGCNによる選択的アテンションアプローチは,ベースラインよりも優れ,データセット上での最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 21.351111598564987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abstractive text summarization is a challenging task, and one need to design
a mechanism to effectively extract salient information from the source text and
then generate a summary. A parsing process of the source text contains critical
syntactic or semantic structures, which is useful to generate more accurate
summary. However, modeling a parsing tree for text summarization is not trivial
due to its non-linear structure and it is harder to deal with a document that
includes multiple sentences and their parsing trees. In this paper, we propose
to use a graph to connect the parsing trees from the sentences in a document
and utilize the stacked graph convolutional networks (GCNs) to learn the
syntactic representation for a document. The selective attention mechanism is
used to extract salient information in semantic and structural aspect and
generate an abstractive summary. We evaluate our approach on the CNN/Daily Mail
text summarization dataset. The experimental results show that the proposed
GCNs based selective attention approach outperforms the baselines and achieves
the state-of-the-art performance on the dataset.
- Abstract(参考訳): 抽象的なテキスト要約は難しい課題であり、ソーステキストから有意な情報を効果的に抽出し、要約を生成するメカニズムを設計する必要がある。
ソーステキストの構文解析プロセスには、より正確な要約を生成するのに役立つ重要な構文構造や意味構造が含まれている。
しかし、テキスト要約のための解析木をモデル化することは、その非線形構造のため自明ではなく、複数の文とその解析木を含む文書を扱うのが困難である。
本稿では,文書中の文から解析木を接続するためのグラフと,文書の構文表現を学習するための重ね畳み込みグラフ畳み込みネットワーク(GCN)を提案する。
選択的注意機構は、意味的・構造的側面において有意な情報を抽出し、抽象的な要約を生成する。
CNN/Daily Mailテキスト要約データセットに対する我々のアプローチを評価する。
実験結果は,提案手法がベースラインを上回り,データセット上での最先端性能を実現することを示す。
関連論文リスト
- Scientific Paper Extractive Summarization Enhanced by Citation Graphs [50.19266650000948]
我々は、引用グラフを活用して、異なる設定下での科学的論文の抽出要約を改善することに重点を置いている。
予備的な結果は、単純な教師なしフレームワークであっても、引用グラフが有用であることを示している。
そこで我々は,大規模ラベル付きデータが利用可能である場合のタスクにおいて,より正確な結果を得るために,グラフベースのスーパービジョン・サムライゼーション・モデル(GSS)を提案する。
論文 参考訳(メタデータ) (2022-12-08T11:53:12Z) - Multiplex Graph Neural Network for Extractive Text Summarization [34.185093491514394]
抽出テキスト要約は、ある文書から最も代表的な文章を要約として抽出することを目的としている。
文と単語の異なる関係を共同でモデル化する新しい多重グラフ畳み込みネットワーク(Multi-GCN)を提案する。
マルチGCNに基づいて,抽出テキスト要約のための多重グラフ要約(Multi-GraS)モデルを提案する。
論文 参考訳(メタデータ) (2021-08-29T16:11:01Z) - BASS: Boosting Abstractive Summarization with Unified Semantic Graph [49.48925904426591]
BASSは、統合されたセマンティックグラフに基づく抽象的な要約を促進するためのフレームワークである。
文書表現と要約生成の両方を改善するために,グラフベースのエンコーダデコーダモデルを提案する。
実験結果から,提案アーキテクチャは長期文書および複数文書要約タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2021-05-25T16:20:48Z) - Enhancing Extractive Text Summarization with Topic-Aware Graph Neural
Networks [21.379555672973975]
本稿では,グラフニューラルネットワーク(GNN)に基づく抽出要約モデルを提案する。
本モデルでは,文章選択のための文書レベルの特徴を提供する潜在トピックを発見するために,共同ニューラルトピックモデル(NTM)を統合している。
実験結果から,CNN/DMおよびNYTデータセットにおいて,本モデルがほぼ最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2020-10-13T09:30:04Z) - Leveraging Graph to Improve Abstractive Multi-Document Summarization [50.62418656177642]
我々は、文書のよく知られたグラフ表現を活用することができる、抽象的多文書要約(MDS)モデルを開発する。
本モデルでは,長い文書の要約に欠かせない文書間関係を捉えるために,文書の符号化にグラフを利用する。
また,このモデルでは,要約生成プロセスの導出にグラフを利用することが可能であり,一貫性と簡潔な要約を生成するのに有用である。
論文 参考訳(メタデータ) (2020-05-20T13:39:47Z) - Heterogeneous Graph Neural Networks for Extractive Document
Summarization [101.17980994606836]
クロス文関係は、抽出文書要約における重要なステップである。
We present a graph-based neural network for extractive summarization (HeterSumGraph)
抽出文書要約のためのグラフベースニューラルネットワークに異なる種類のノードを導入する。
論文 参考訳(メタデータ) (2020-04-26T14:38:11Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z) - Learning Syntactic and Dynamic Selective Encoding for Document
Summarization [17.666036645395845]
本稿では,文書要約のための新しいニューラルネットワークを提案する。
木を解析する選挙区解析などの構文情報をエンコードシーケンスに組み込む。
そこで本稿では,デコーダ状態のコンテキストに基づいて有能な情報を選択するための動的ゲートネットワークを提案する。
論文 参考訳(メタデータ) (2020-03-25T01:29:38Z) - StructSum: Summarization via Structured Representations [27.890477913486787]
抽象テキスト要約は、長い資料の情報を要約した要約に圧縮することを目的としている。
モデリング技術の進歩にもかかわらず、抽象的な要約モデルは依然としていくつかの重要な課題に悩まされている。
本稿では,これらの課題に対処するための要約のための文書レベルの構造誘導に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-01T20:32:51Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。