論文の概要: `Keep it Together': Enforcing Cohesion in Extractive Summaries by
Simulating Human Memory
- arxiv url: http://arxiv.org/abs/2402.10643v1
- Date: Fri, 16 Feb 2024 12:43:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 16:13:35.318287
- Title: `Keep it Together': Enforcing Cohesion in Extractive Summaries by
Simulating Human Memory
- Title(参考訳): keep it together":人間の記憶をシミュレートして抽出要約の結束を強制する
- Authors: Ronald Cardenas and Matthias Galle and Shay B. Cohen
- Abstract要約: 本稿では,要約における情報性や冗長性を制御しつつ,凝集を強制することを目的としている。
我々の文セレクタは、人間の記憶をシミュレートしてトピックを追跡する。
非常に密集した要約を抽出することはできるが、それでも人間にとって有意義な内容の要約を読めばよい。
- 参考スコア(独自算出の注目度): 22.659031563705245
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Extractive summaries are usually presented as lists of sentences with no
expected cohesion between them. In this paper, we aim to enforce cohesion
whilst controlling for informativeness and redundancy in summaries, in cases
where the input exhibits high redundancy. The pipeline controls for redundancy
in long inputs as it is consumed, and balances informativeness and cohesion
during sentence selection. Our sentence selector simulates human memory to keep
track of topics --modeled as lexical chains--, enforcing cohesive ties between
noun phrases. Across a variety of domains, our experiments revealed that it is
possible to extract highly cohesive summaries that nevertheless read as
informative to humans as summaries extracted by only accounting for
informativeness or redundancy. The extracted summaries exhibit smooth topic
transitions between sentences as signaled by lexical chains, with chains
spanning adjacent or near-adjacent sentences.
- Abstract(参考訳): 抽出要約は通常、それらの間の結合が期待されない文のリストとして提示される。
本稿では,入力が高い冗長性を示す場合において,要約における情報性や冗長性を制御しながら凝集を強制することを目的とする。
パイプラインは、消費される長い入力の冗長性を制御し、文選択中の情報と凝集のバランスをとる。
私たちの文セレクタは、人間の記憶をシミュレートし、語彙連鎖としてモデル化されたトピックを追跡します。
様々な領域において,本実験では,情報性や冗長性のみを考慮し抽出した要約として,人間の情報として読み取れる,密集性の高い要約を抽出することが可能であることが判明した。
抽出された要約は、語彙連鎖によって合図される文間のスムーズな話題遷移を示し、隣接文または近隣接文にまたがる連鎖を示す。
関連論文リスト
- Attributable and Scalable Opinion Summarization [79.87892048285819]
我々は、頻繁なエンコーディングを復号することで抽象的な要約を生成し、同じ頻繁なエンコーディングに割り当てられた文を選択して抽出的な要約を生成する。
本手法は,要約プロセスの一部として要約を生成するために使用される文を同定するため,帰属的手法である。
なぜなら、アグリゲーションはトークンの長いシーケンスではなく、潜在空間で実行されるからである。
論文 参考訳(メタデータ) (2023-05-19T11:30:37Z) - On the Trade-off between Redundancy and Local Coherence in Summarization [20.16107829497668]
抽出した要約文の相互結合と冗長性の制御を目的とした場合のトレードオフについて検討する。
提案した非教師システムでは,文書の冗長性のレベルによって,密集度の高い要約を抽出できることがわかった。
論文 参考訳(メタデータ) (2022-05-20T14:10:28Z) - SNaC: Coherence Error Detection for Narrative Summarization [73.48220043216087]
SNaCは長文の微粒化アノテーションに根ざした物語コヒーレンス評価フレームワークである。
本稿では,生成した物語要約におけるコヒーレンスエラーの分類法を開発し,150冊の本や映画の脚本要約にまたがる6.6k文のスパンレベルアノテーションを収集する。
我々の研究は、最先端の要約モデルによって生成されるコヒーレンスエラーの最初の特徴と、群衆アノテータからコヒーレンス判断を引き出すためのプロトコルを提供する。
論文 参考訳(メタデータ) (2022-05-19T16:01:47Z) - A Survey on Neural Abstractive Summarization Methods and Factual
Consistency of Summarization [18.763290930749235]
要約は、サブセット(要約)を作成するために、テキストデータの集合を計算的に短縮する過程である
既存の要約法は、抽出法と抽象法という2つのタイプに大別できる。
抽出要約器は、ソース文書からテキストスニペットを明示的に選択し、抽象要約器は、ソースで広く普及している最も健全な概念を伝えるために、新しいテキストスニペットを生成する。
論文 参考訳(メタデータ) (2022-04-20T14:56:36Z) - Extractive Summarization of Call Transcripts [77.96603959765577]
本稿では, 話題のモデル化と文選択と句読点の復元を併用した母語的手法を提案する。
大規模なテスト,評価,比較により,この要約法の有効性が証明された。
論文 参考訳(メタデータ) (2021-03-19T02:40:59Z) - Unsupervised Extractive Summarization using Pointwise Mutual Information [5.544401446569243]
文間のポイントワイズ相互情報 (PMI) を用いて, 関連性および冗長性の新たな指標を提案する。
本手法は, ニュース, 医療雑誌記事, 個人逸話など, さまざまな領域のデータセットにおける類似性に基づく手法を上回っていることを示した。
論文 参考訳(メタデータ) (2021-02-11T21:05:50Z) - Relation Clustering in Narrative Knowledge Graphs [71.98234178455398]
原文内の関係文は(SBERTと)埋め込み、意味論的に類似した関係をまとめるためにクラスタ化される。
予備的なテストでは、そのようなクラスタリングが類似した関係を検知し、半教師付きアプローチのための貴重な前処理を提供することが示されている。
論文 参考訳(メタデータ) (2020-11-27T10:43:04Z) - Understanding Points of Correspondence between Sentences for Abstractive
Summarization [39.7404761923196]
本稿では,文書から引き出された文の融合について,対応点の概念を導入して検討する。
我々は、文書、ソースおよび融合文、および文間の対応点の人間のアノテーションを含むデータセットを作成する。
論文 参考訳(メタデータ) (2020-06-10T02:42:38Z) - Screenplay Summarization Using Latent Narrative Structure [78.45316339164133]
本稿では,物語の基盤となる構造を一般教師なし・教師付き抽出要約モデルに明示的に組み込むことを提案する。
重要な物語イベント(転回点)の観点で物語構造を定式化し、脚本を要約するために潜伏状態として扱う。
シーンレベルの要約ラベルを付加したテレビ画面のCSIコーパスの実験結果から,潜角点がCSIエピソードの重要な側面と相関していることが判明した。
論文 参考訳(メタデータ) (2020-04-27T11:54:19Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。