論文の概要: Learning Syntactic and Dynamic Selective Encoding for Document
Summarization
- arxiv url: http://arxiv.org/abs/2003.11173v1
- Date: Wed, 25 Mar 2020 01:29:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 02:38:30.466552
- Title: Learning Syntactic and Dynamic Selective Encoding for Document
Summarization
- Title(参考訳): 文書要約のための構文と動的選択符号化の学習
- Authors: Haiyang Xu, Yahao He, Kun Han, Junwen Chen and Xiangang Li
- Abstract要約: 本稿では,文書要約のための新しいニューラルネットワークを提案する。
木を解析する選挙区解析などの構文情報をエンコードシーケンスに組み込む。
そこで本稿では,デコーダ状態のコンテキストに基づいて有能な情報を選択するための動的ゲートネットワークを提案する。
- 参考スコア(独自算出の注目度): 17.666036645395845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text summarization aims to generate a headline or a short summary consisting
of the major information of the source text. Recent studies employ the
sequence-to-sequence framework to encode the input with a neural network and
generate abstractive summary. However, most studies feed the encoder with the
semantic word embedding but ignore the syntactic information of the text.
Further, although previous studies proposed the selective gate to control the
information flow from the encoder to the decoder, it is static during the
decoding and cannot differentiate the information based on the decoder states.
In this paper, we propose a novel neural architecture for document
summarization. Our approach has the following contributions: first, we
incorporate syntactic information such as constituency parsing trees into the
encoding sequence to learn both the semantic and syntactic information from the
document, resulting in more accurate summary; second, we propose a dynamic gate
network to select the salient information based on the context of the decoder
state, which is essential to document summarization. The proposed model has
been evaluated on CNN/Daily Mail summarization datasets and the experimental
results show that the proposed approach outperforms baseline approaches.
- Abstract(参考訳): テキスト要約は、ソーステキストの主要情報からなる見出しまたは短い要約を生成することを目的としている。
近年の研究では、シーケンス・ツー・シーケンス・フレームワークを使用して、入力をニューラルネットワークでエンコードし、抽象的な要約を生成する。
しかし、ほとんどの研究はエンコーダにセマンティックな単語の埋め込みを与えるが、テキストの構文情報は無視する。
さらに,従来の研究では,エンコーダからデコーダへの情報フローを制御するための選択ゲートが提案されていたが,復号時には静的であり,デコーダの状態に基づいて情報を識別することはできない。
本稿では,文書要約のためのニューラルアーキテクチャを提案する。
提案手法では,まず,文書から意味的情報と構文的情報の両方を学習するために,木を解析するような構文情報をエンコードシーケンスに組み込んで,より正確な要約を行う。
提案モデルはcnn/dailyメール要約データセット上で評価されており,提案手法がベースラインアプローチよりも優れていることを示す実験結果が得られた。
関連論文リスト
- Neural Sequence-to-Sequence Modeling with Attention by Leveraging Deep Learning Architectures for Enhanced Contextual Understanding in Abstractive Text Summarization [0.0]
本稿では,単一文書の抽象TSのための新しいフレームワークを提案する。
構造、セマンティック、およびニューラルベースアプローチの3つの主要な側面を統合している。
その結果, 希少語, OOV語処理の大幅な改善が示唆された。
論文 参考訳(メタデータ) (2024-04-08T18:33:59Z) - Tram: A Token-level Retrieval-augmented Mechanism for Source Code Summarization [76.57699934689468]
ニューラルモデルの性能を高めるために,デコーダ側で詳細なTokenレベル検索強化機構(Tram)を提案する。
文脈的コードセマンティクスの取得におけるトークンレベルの検索の課題を克服するために,コードセマンティクスを個々の要約トークンに統合することを提案する。
論文 参考訳(メタデータ) (2023-05-18T16:02:04Z) - Multi-Document Scientific Summarization from a Knowledge Graph-Centric
View [9.579482432715261]
符号化処理と復号処理の両方において知識グラフを中心としたMDSSモデルであるKGSumを提案する。
具体的には、2つのグラフベースのモジュールが、知識グラフ情報を紙のエンコーディングに組み込むように提案されている。
復号処理では,まず要約の知識グラフ情報を記述文形式で生成し,次に最終要約を生成する2段復号器を提案する。
論文 参考訳(メタデータ) (2022-09-09T14:20:59Z) - Hierarchical Sketch Induction for Paraphrase Generation [79.87892048285819]
本稿では、高密度符号化の分解を学習するHRQ-VAE(Hierarchical Refinement Quantized Variational Autoencoders)を紹介する。
HRQ-VAEを用いて、入力文の構文形式を階層化の経路としてエンコードすることで、テスト時の構文スケッチをより容易に予測できる。
論文 参考訳(メタデータ) (2022-03-07T15:28:36Z) - Hierarchical Bi-Directional Self-Attention Networks for Paper Review
Rating Recommendation [81.55533657694016]
本稿では,階層型双方向自己注意ネットワークフレームワーク(HabNet)を提案する。
具体的には、文エンコーダ(レベル1)、レビュー内エンコーダ(レベル2)、レビュー間エンコーダ(レベル3)の3つのレベルで、論文レビューの階層構造を利用する。
我々は、最終的な受理決定を行う上で有用な予測者を特定することができ、また、数値的なレビュー評価とレビュアーが伝えるテキストの感情の不整合を発見するのに役立てることができる。
論文 参考訳(メタデータ) (2020-11-02T08:07:50Z) - Keyphrase Extraction with Dynamic Graph Convolutional Networks and
Diversified Inference [50.768682650658384]
キーワード抽出(KE)は、ある文書でカバーされている概念やトピックを正確に表現するフレーズの集合を要約することを目的としている。
最近のシークエンス・ツー・シークエンス(Seq2Seq)ベースの生成フレームワークはKEタスクで広く使われ、様々なベンチマークで競合性能を得た。
本稿では,この2つの問題を同時に解くために,動的グラフ畳み込みネットワーク(DGCN)を採用することを提案する。
論文 参考訳(メタデータ) (2020-10-24T08:11:23Z) - Topic-Guided Abstractive Text Summarization: a Joint Learning Approach [19.623946402970933]
本稿では,抽象テキスト要約のための新しいアプローチ,トピックガイドによる抽象要約を提案する。
ニューラルネットワークをTransformerベースのシーケンス・ツー・シーケンス(seq2seq)モデルに結合学習フレームワークに組み込むことが目的だ。
論文 参考訳(メタデータ) (2020-10-20T14:45:25Z) - Cross-Thought for Sentence Encoder Pre-training [89.32270059777025]
Cross-Thoughtは、事前トレーニングシーケンスエンコーダに対する新しいアプローチである。
我々は、Transformerベースのシーケンスエンコーダを、多数の短いシーケンスに対してトレーニングする。
質問応答とテキストのエンコーダタスクの実験は、事前学習したエンコーダが最先端のエンコーダより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-07T21:02:41Z) - Improved Code Summarization via a Graph Neural Network [96.03715569092523]
一般に、ソースコード要約技術はソースコードを入力として使用し、自然言語記述を出力する。
これらの要約を生成するために、ASTのデフォルト構造によくマッチするグラフベースのニューラルアーキテクチャを使用するアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:36:42Z) - Selective Attention Encoders by Syntactic Graph Convolutional Networks
for Document Summarization [21.351111598564987]
本稿では,文書中の文から解析木を接続するグラフを提案し,文書の構文表現を学習するために重ねられたグラフ畳み込みネットワーク(GCN)を利用する。
提案したGCNによる選択的アテンションアプローチは,ベースラインよりも優れ,データセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-03-18T01:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。