論文の概要: A Condense-then-Select Strategy for Text Summarization
- arxiv url: http://arxiv.org/abs/2106.10468v1
- Date: Sat, 19 Jun 2021 10:33:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:38:03.808192
- Title: A Condense-then-Select Strategy for Text Summarization
- Title(参考訳): テキスト要約のためのcondense-then-Select戦略
- Authors: Hou Pong Chan and Irwin King
- Abstract要約: テキスト要約のための新しいcondense-then-selectフレームワークを提案する。
我々のフレームワークは、文レベルの圧縮の効率を高く保ちながら、有能な情報の損失を避けるのに役立ちます。
- 参考スコア(独自算出の注目度): 53.10242552203694
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Select-then-compress is a popular hybrid, framework for text summarization
due to its high efficiency. This framework first selects salient sentences and
then independently condenses each of the selected sentences into a concise
version. However, compressing sentences separately ignores the context
information of the document, and is therefore prone to delete salient
information. To address this limitation, we propose a novel
condense-then-select framework for text summarization. Our framework first
concurrently condenses each document sentence. Original document sentences and
their compressed versions then become the candidates for extraction. Finally,
an extractor utilizes the context information of the document to select
candidates and assembles them into a summary. If salient information is deleted
during condensing, the extractor can select an original sentence to retain the
information. Thus, our framework helps to avoid the loss of salient
information, while preserving the high efficiency of sentence-level
compression. Experiment results on the CNN/DailyMail, DUC-2002, and Pubmed
datasets demonstrate that our framework outperforms the select-then-compress
framework and other strong baselines.
- Abstract(参考訳): select-then-compressはテキスト要約のための人気のあるハイブリッドフレームワークである。
このフレームワークは、まず、まともな文を選択し、それから独立して選択された各文を簡潔なバージョンに凝縮する。
しかし、圧縮文は文書のコンテキスト情報を別々に無視するので、健全な情報を削除しがちである。
そこで本研究では,テキスト要約のための新しいコンデンサ選択フレームワークを提案する。
まず、各文書文を同時に要約する。
原文文とその圧縮されたバージョンが抽出の候補となる。
最後に、抽出器は文書のコンテキスト情報を利用して候補を選択し、要約にまとめる。
凝縮中に有能な情報が削除された場合、抽出者は原文を選択して情報を保持することができる。
したがって,本フレームワークは,文レベルの圧縮の効率を高く保ちながら,有能な情報の損失を回避するのに役立つ。
CNN/DailyMail、DUC-2002、Pubmedデータセットの実験結果から、我々のフレームワークはセレクトthen圧縮フレームワークや他の強力なベースラインよりも優れていることが示された。
関連論文リスト
- Incremental Extractive Opinion Summarization Using Cover Trees [81.59625423421355]
オンラインマーケットプレースでは、ユーザレビューは時間とともに蓄積され、意見要約を定期的に更新する必要がある。
本研究では,漸進的な環境下での抽出的意見要約の課題について検討する。
本稿では,CentroidRankの要約をインクリメンタルな設定で正確に計算するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-16T02:00:17Z) - A General Contextualized Rewriting Framework for Text Summarization [15.311467109946571]
抽出文は比較的焦点が当てられているが、背景知識や談話の文脈が失われる可能性がある。
コンテントベースのアドレッシングによって抽出文を識別し、グループタグアライメントを施したSeq2seqとしてコンテクスト化された書き直しを形式化する。
その結果,本手法は強化学習を必要とせず,非コンテクスチュアライズされた書き換えシステムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-13T03:55:57Z) - A Survey on Neural Abstractive Summarization Methods and Factual
Consistency of Summarization [18.763290930749235]
要約は、サブセット(要約)を作成するために、テキストデータの集合を計算的に短縮する過程である
既存の要約法は、抽出法と抽象法という2つのタイプに大別できる。
抽出要約器は、ソース文書からテキストスニペットを明示的に選択し、抽象要約器は、ソースで広く普及している最も健全な概念を伝えるために、新しいテキストスニペットを生成する。
論文 参考訳(メタデータ) (2022-04-20T14:56:36Z) - Topic Modeling Based Extractive Text Summarization [0.0]
本稿では,潜在トピックに基づいて内容をクラスタリングすることで,テキストを要約する新しい手法を提案する。
我々は、テキスト要約へのアプローチにおいて、より使用量が少なく挑戦的なWikiHowデータセットを活用している。
論文 参考訳(メタデータ) (2021-06-29T12:28:19Z) - Extractive Summarization of Call Transcripts [77.96603959765577]
本稿では, 話題のモデル化と文選択と句読点の復元を併用した母語的手法を提案する。
大規模なテスト,評価,比較により,この要約法の有効性が証明された。
論文 参考訳(メタデータ) (2021-03-19T02:40:59Z) - Unsupervised Summarization for Chat Logs with Topic-Oriented Ranking and
Context-Aware Auto-Encoders [59.038157066874255]
本稿では,手動ラベル付きデータを用いずにチャット要約を行うrankaeという新しいフレームワークを提案する。
RankAEは、中心性と多様性に応じてトピックの発話を同時に選択するトピック指向のランキング戦略で構成されています。
消音自動エンコーダは、選択された発話に基づいて簡潔でコンテキスト情報に基づいた要約を生成するように設計されています。
論文 参考訳(メタデータ) (2020-12-14T07:31:17Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z) - Selective Attention Encoders by Syntactic Graph Convolutional Networks
for Document Summarization [21.351111598564987]
本稿では,文書中の文から解析木を接続するグラフを提案し,文書の構文表現を学習するために重ねられたグラフ畳み込みネットワーク(GCN)を利用する。
提案したGCNによる選択的アテンションアプローチは,ベースラインよりも優れ,データセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-03-18T01:30:02Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。