論文の概要: Neural Abstractive Summarization with Structural Attention
- arxiv url: http://arxiv.org/abs/2004.09739v2
- Date: Sat, 10 Oct 2020 05:32:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 05:52:57.655111
- Title: Neural Abstractive Summarization with Structural Attention
- Title(参考訳): 構造的注意を伴う神経抽象要約
- Authors: Tanya Chowdhury, Sachin Kumar, Tanmoy Chakraborty
- Abstract要約: このような文間依存関係と文書間依存関係をモデル化するための構造的注意に基づく階層型エンコーダを提案する。
提案手法は,単一文書の要約設定と複数文書の要約設定の両方において,ベースラインよりも大幅に改善されていることを示す。
- 参考スコア(独自算出の注目度): 31.50918718905953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attentional, RNN-based encoder-decoder architectures have achieved impressive
performance on abstractive summarization of news articles. However, these
methods fail to account for long term dependencies within the sentences of a
document. This problem is exacerbated in multi-document summarization tasks
such as summarizing the popular opinion in threads present in community
question answering (CQA) websites such as Yahoo! Answers and Quora. These
threads contain answers which often overlap or contradict each other. In this
work, we present a hierarchical encoder based on structural attention to model
such inter-sentence and inter-document dependencies. We set the popular
pointer-generator architecture and some of the architectures derived from it as
our baselines and show that they fail to generate good summaries in a
multi-document setting. We further illustrate that our proposed model achieves
significant improvement over the baselines in both single and multi-document
summarization settings -- in the former setting, it beats the best baseline by
1.31 and 7.8 ROUGE-1 points on CNN and CQA datasets, respectively; in the
latter setting, the performance is further improved by 1.6 ROUGE-1 points on
the CQA dataset.
- Abstract(参考訳): 意図的なRNNベースのエンコーダデコーダアーキテクチャは,ニュース記事の抽象的な要約において,優れた性能を発揮している。
しかし、これらの手法は文書の文中の長期的な依存関係を考慮しない。
この問題は,Yahoo! Answers や Quora などのコミュニティ質問応答 (CQA) サイトに存在するスレッドの一般的な意見を要約するなど,多文書要約タスクにおいてさらに悪化する。
これらのスレッドは、しばしば重なり合うか、矛盾する回答を含んでいる。
本研究では,このような文間依存関係と文書間依存関係をモデル化した階層型エンコーダを提案する。
一般的なポインタジェネレータアーキテクチャとそれに由来するアーキテクチャのいくつかをベースラインに設定し、複数のドキュメント設定で優れた要約を生成できないことを示す。
さらに,提案モデルは,単一文書と複数文書の要約設定の両方において,ベースラインよりも大幅に改善されていることを示す。前者では,cnn と cqa データセットでそれぞれ 1.31 と 7.8 rouge-1 の基準点をそれぞれ上回っており,後者では cqa データセットの 1.6 rouge-1 ポイントでさらに性能が向上している。
関連論文リスト
- REXEL: An End-to-end Model for Document-Level Relation Extraction and Entity Linking [11.374031643273941]
REXELは文書レベルcIE(DocIE)の共同作業のための高効率かつ高精度なモデルである
同様の環境では、競合する既存のアプローチよりも平均11倍高速です。
速度と精度の組み合わせにより、REXELはWebスケールで構造化された情報を抽出する正確なコスト効率のシステムとなる。
論文 参考訳(メタデータ) (2024-04-19T11:04:27Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - ReSel: N-ary Relation Extraction from Scientific Text and Tables by
Learning to Retrieve and Select [53.071352033539526]
学術論文からN-ary関係を抽出する問題について考察する。
提案手法であるReSelは,このタスクを2段階のプロシージャに分解する。
3つの科学的情報抽出データセットに対する実験により、ReSelは最先端のベースラインを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-10-26T02:28:02Z) - HIBRIDS: Attention with Hierarchical Biases for Structure-aware Long
Document Summarization [17.58231642569116]
注意点の計算に文書構造を取り入れた階層的バイアスフォアを注入するHIBRIDSを提案する。
また、ソース文書中の有能な内容を質問階層と要約階層に要約するための新しいタスクである階層的質問要約生成を提案する。
論文 参考訳(メタデータ) (2022-03-21T05:27:35Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - Hierarchical Neural Network Approaches for Long Document Classification [3.6700088931938835]
我々は、より効率的な表現を効率よく捉えるために、事前訓練された普遍文(USE)と変換器からの双方向表現(BERT)を階層的に採用する。
提案するモデルは概念的に単純であり,入力データをチャンクに分割し,BERTとUSEのベースモデルに渡す。
USE + CNN/LSTM はスタンドアローンのベースラインよりも優れており、BERT + CNN/LSTM はスタンドアローンのベースラインと同等である。
論文 参考訳(メタデータ) (2022-01-18T07:17:40Z) - Nested and Balanced Entity Recognition using Multi-Task Learning [0.0]
本稿では,重複するケースとネストされたケースの複雑さを扱う部分層ネットワークアーキテクチャを提案する。
私たちは、概念(CR)と名前付きエンティティ(NER)という2種類のエンティティを認識するために、このアーキテクチャを訓練し、評価します。
提案手法は最先端のNER性能を実現し,従来のCR手法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-11T07:52:32Z) - BASS: Boosting Abstractive Summarization with Unified Semantic Graph [49.48925904426591]
BASSは、統合されたセマンティックグラフに基づく抽象的な要約を促進するためのフレームワークである。
文書表現と要約生成の両方を改善するために,グラフベースのエンコーダデコーダモデルを提案する。
実験結果から,提案アーキテクチャは長期文書および複数文書要約タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2021-05-25T16:20:48Z) - Data Augmentation for Abstractive Query-Focused Multi-Document
Summarization [129.96147867496205]
2つのQMDSトレーニングデータセットを提示し,2つのデータ拡張手法を用いて構築する。
これらの2つのデータセットは相補的な性質を持ち、すなわちQMDSCNNは実際のサマリを持つが、クエリはシミュレートされる。
組み合わせたデータセット上にエンドツーエンドのニューラルネットワークモデルを構築し、DUCデータセットに最新の転送結果をもたらします。
論文 参考訳(メタデータ) (2021-03-02T16:57:01Z) - Structured Multimodal Attentions for TextVQA [57.71060302874151]
上述の2つの問題を主に解決するために,終端から終端までの構造化マルチモーダルアテンション(SMA)ニューラルネットワークを提案する。
SMAはまず、画像に現れるオブジェクト・オブジェクト・オブジェクト・テキスト・テキストの関係を符号化するために構造グラフ表現を使用し、その後、それを推論するためにマルチモーダルグラフアテンションネットワークを設計する。
提案モデルでは,テキストVQAデータセットとST-VQAデータセットの2つのタスクを事前学習ベースTAP以外のモデルで比較した。
論文 参考訳(メタデータ) (2020-06-01T07:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。