論文の概要: Attend to the beginning: A study on using bidirectional attention for
extractive summarization
- arxiv url: http://arxiv.org/abs/2002.03405v3
- Date: Sat, 9 May 2020 03:13:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 14:18:23.727569
- Title: Attend to the beginning: A study on using bidirectional attention for
extractive summarization
- Title(参考訳): はじめに:抽出要約における双方向の注意力の利用に関する研究
- Authors: Ahmed Magooda and Cezary Marcjan
- Abstract要約: 本稿では,抽出要約モデルの性能向上のために,文書の開始に参画することを提案する。
我々は、テキストデータの最初の数文に出席することで、テキストの早期に重要な情報を導入する傾向を生かしている。
- 参考スコア(独自算出の注目度): 1.148539813252112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Forum discussion data differ in both structure and properties from generic
form of textual data such as news. Henceforth, summarization techniques should,
in turn, make use of such differences, and craft models that can benefit from
the structural nature of discussion data. In this work, we propose attending to
the beginning of a document, to improve the performance of extractive
summarization models when applied to forum discussion data. Evaluations
demonstrated that with the help of bidirectional attention mechanism, attending
to the beginning of a document (initial comment/post) in a discussion thread,
can introduce a consistent boost in ROUGE scores, as well as introducing a new
State Of The Art (SOTA) ROUGE scores on the forum discussions dataset.
Additionally, we explored whether this hypothesis is extendable to other
generic forms of textual data. We make use of the tendency of introducing
important information early in the text, by attending to the first few
sentences in generic textual data. Evaluations demonstrated that attending to
introductory sentences using bidirectional attention, improves the performance
of extractive summarization models when even applied to more generic form of
textual data.
- Abstract(参考訳): フォーラムの議論データは、ニュースのような一般的なテキストデータと構造と特性の両方が異なる。
したがって、要約技術は、その違いを利用して、議論データの構造的性質から恩恵を受けることができるモデルを構築するべきである。
本稿では,文書の開始に参画し,フォーラムディスカッションデータに適用した場合の抽出要約モデルの性能を向上させることを提案する。
議論スレッドで文書(初期コメント/ポスト)の開始に出席する双方向の注意機構の助けを借りることで、ROUGEスコアの一貫性が向上し、フォーラムディスカッションデータセットに新たなステート・オブ・ザ・アート(SOTA) ROUGEスコアが導入された。
さらに,この仮説が他のテキストデータに拡張可能であるかを検討した。
テキストデータの最初の数文に出席することで,テキストの早期に重要な情報を導入する傾向を生かしている。
双方向注意を用いた導入文への参加は,より汎用的なテキストデータに適用した場合の抽出的要約モデルの性能を向上させることを示した。
関連論文リスト
- Enhancing Argument Structure Extraction with Efficient Leverage of
Contextual Information [79.06082391992545]
本稿では,コンテキスト情報を完全に活用する効率的なコンテキスト認識モデル(ECASE)を提案する。
文脈情報や議論情報を集約するために,シーケンスアテンションモジュールと距離重み付き類似度損失を導入する。
各種ドメインの5つのデータセットに対する実験により,我々のモデルが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-10-08T08:47:10Z) - A Data-driven Latent Semantic Analysis for Automatic Text Summarization
using LDA Topic Modelling [0.0]
本研究では、トピックモデリングを行うために使用されるLDA(Latent Dirichlet Allocation)アプローチを提案する。
可視化は主要なトピックを概観し、個々のトピックに対する深い意味を許容し、帰結させる。
その結果,処理文書中の話題の出現確率を考慮し,純粋にランク付けされた用語が示唆された。
論文 参考訳(メタデータ) (2022-07-23T11:04:03Z) - Dialogue Summarization with Supporting Utterance Flow Modeling and Fact
Regularization [58.965859508695225]
本稿では、2つの新しいモジュールを用いた対話要約のためのエンドツーエンドニューラルネットワークを提案する。
サポートされた発話フローモデリングは、前者の発話から後者へのフォーカスを円滑にシフトさせることで、コヒーレントな要約を生成するのに役立つ。
事実の正則化は、モデルトレーニング中に生成された要約は、基礎と真実の要約と実際に一致するように促します。
論文 参考訳(メタデータ) (2021-08-03T03:09:25Z) - Topic Modeling Based Extractive Text Summarization [0.0]
本稿では,潜在トピックに基づいて内容をクラスタリングすることで,テキストを要約する新しい手法を提案する。
我々は、テキスト要約へのアプローチにおいて、より使用量が少なく挑戦的なWikiHowデータセットを活用している。
論文 参考訳(メタデータ) (2021-06-29T12:28:19Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z) - Transductive Learning for Abstractive News Summarization [24.03781438153328]
トランスダクティブラーニングの要約への最初の適用を提案する。
このアプローチはCNN/DMおよびNYTデータセットに最先端の結果をもたらすことを示しています。
論文 参考訳(メタデータ) (2021-04-17T17:33:12Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。