論文の概要: Automated Timeline Length Selection for Flexible Timeline Summarization
- arxiv url: http://arxiv.org/abs/2105.14201v1
- Date: Sat, 29 May 2021 03:47:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:19:50.504958
- Title: Automated Timeline Length Selection for Flexible Timeline Summarization
- Title(参考訳): フレキシブルタイムライン要約のための自動タイムライン長選択
- Authors: Xi Li, Qianren Mao, Hao Peng, Hongdong Zhu, Jianxin Li, Zheng Wang
- Abstract要約: タイムライン要約(TLS)は多くの情報検索タスクを支える。
TLSソリューションは、イベントに依存しない固定長または専門家が提供する設定に依存する。
本稿では,タイムライン長を自動的に動的に決定するためのTLS手法を提案する。
- 参考スコア(独自算出の注目度): 32.763953419046665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: By producing summaries for long-running events, timeline summarization (TLS)
underpins many information retrieval tasks. Successful TLS requires identifying
an appropriate set of key dates (the timeline length) to cover. However, doing
so is challenging as the right length can change from one topic to another.
Existing TLS solutions either rely on an event-agnostic fixed length or an
expert-supplied setting. Neither of the strategies is desired for real-life TLS
scenarios. A fixed, event-agnostic setting ignores the diversity of events and
their development and hence can lead to low-quality TLS. Relying on
expert-crafted settings is neither scalable nor sustainable for processing many
dynamically changing events. This paper presents a better TLS approach for
automatically and dynamically determining the TLS timeline length. We achieve
this by employing the established elbow method from the machine learning
community to automatically find the minimum number of dates within the time
series to generate concise and informative summaries. We applied our approach
to four TLS datasets of English and Chinese and compared them against three
prior methods. Experimental results show that our approach delivers comparable
or even better summaries over state-of-art TLS methods, but it achieves this
without expert involvement.
- Abstract(参考訳): 長期にわたるイベントの要約を生成することで、タイムライン要約(TLS)は多くの情報検索タスクを支える。
成功したTLSは、カバーするキー日付(タイムラインの長さ)の適切なセットを特定する必要がある。
しかし、適切な長さがトピックから別のトピックに変化する可能性があるため、そうすることは難しい。
既存のTLSソリューションは、イベントに依存しない固定長または専門家が提供する設定に依存する。
どちらの戦略も現実のTLSシナリオには望まれない。
固定されたイベントに依存しない設定は、イベントの多様性とその開発を無視し、低品質のtlsにつながる可能性がある。
専門的な設定に依存することは、動的に変化するイベントを処理するためにスケーラブルでも持続可能でもない。
本稿では,TLSのタイムライン長を自動的に動的に決定するためのTLS手法を提案する。
我々は、機械学習コミュニティから確立された肘法を用いて、時系列内の最小日付を自動的に見つけ、簡潔で情報的な要約を生成する。
提案手法を英語と中国語の4つのTLSデータセットに適用し,従来の3つの手法と比較した。
実験結果から,本手法は最先端TLS法に比較して,より優れた要約を提供するが,専門家の関与なく実現可能であることがわかった。
関連論文リスト
- Write Summary Step-by-Step: A Pilot Study of Stepwise Summarization [48.57273563299046]
本稿では,新たな文書が提案されるたびに追加の要約を生成するステップワイド要約の課題を提案する。
追加された要約は、新たに追加されたコンテンツを要約するだけでなく、以前の要約と一貫性を持たなければならない。
SSGは,自動計測と人的評価の両面から,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-06-08T05:37:26Z) - Analyzing Temporal Complex Events with Large Language Models? A Benchmark towards Temporal, Long Context Understanding [57.62275091656578]
時間的複合イベント(TCE)として、長い期間にわたって多くのニュース記事から構成される複合イベントについて述べる。
本稿では,Large Language Models (LLMs) を用いて,TCE内のイベントチェーンを系統的に抽出し,解析する手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T16:42:17Z) - On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - VCSUM: A Versatile Chinese Meeting Summarization Dataset [25.695308276427166]
我々は,239のリアルタイムミーティングからなる,VCSumと呼ばれる汎用的な中国の会議要約データセットを紹介する。
トピックセグメンテーション、見出し、セグメンテーションサマリー、全体会議サマリー、および各ミーティングスクリプティングに対する敬意的な文のアノテーションを提供する。
分析の結果,VCSumの有効性とロバスト性が確認された。
論文 参考訳(メタデータ) (2023-05-09T09:07:15Z) - Follow the Timeline! Generating Abstractive and Extractive Timeline
Summary in Chronological Order [78.46986998674181]
時間順で抽象的かつ抽出的な時系列を生成できる統一タイムライン要約器(UTS)を提案する。
我々は、以前の中国の大規模タイムライン要約データセットを拡張し、新しい英語タイムラインデータセットを収集する。
UTSは、自動評価と人的評価の両方の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-01-02T20:29:40Z) - CLTS+: A New Chinese Long Text Summarization Dataset with Abstractive
Summaries [10.113673549224256]
抽象的な方法に創造性が欠けていることは、特に自動テキスト要約における問題である。
抽象度の高い中国初の長文要約データセットであるCLTS+を提案する。
我々は、CLTS+サマリーで使われる抽出戦略を他のデータセットに対して分析し、新しいデータの抽象性と難易度を定量化する。
論文 参考訳(メタデータ) (2022-06-09T03:53:52Z) - SQuALITY: Building a Long-Document Summarization Dataset the Hard Way [31.832673451018543]
高い資格を持つ請負業者を雇い、ストーリーを読み、オリジナルの要約をスクラッチから書きます。
読解時間を記憶するために,文書毎に5つの要約を収集し,まず概要とその後の4つの質問に対処する。
最先端の要約システムによる実験は、我々のデータセットが困難であり、既存の自動評価指標が品質の弱い指標であることを示している。
論文 参考訳(メタデータ) (2022-05-23T17:02:07Z) - CNewSum: A Large-scale Chinese News Summarization Dataset with
Human-annotated Adequacy and Deducibility Level [15.969302324314516]
大規模中国語ニュース要約データセットCNewSumについて述べる。
304,307件の文書と人によるニュースフィードの要約で構成されている。
そのテストセットには、要約のための妥当性と再現性アノテーションが含まれている。
論文 参考訳(メタデータ) (2021-10-21T03:37:46Z) - Text Summarization with Latent Queries [60.468323530248945]
本稿では,LaQSumについて紹介する。LaQSumは,既存の問合せ形式と抽象的な要約のための文書から遅延クエリを学習する,最初の統一テキスト要約システムである。
本システムでは, 潜伏クエリモデルと条件付き言語モデルとを協調的に最適化し, ユーザがテスト時に任意のタイプのクエリをプラグイン・アンド・プレイできるようにする。
本システムでは,クエリタイプ,文書設定,ターゲットドメインの異なる要約ベンチマークにおいて,強力な比較システムの性能を強く向上させる。
論文 参考訳(メタデータ) (2021-05-31T21:14:58Z) - The Shmoop Corpus: A Dataset of Stories with Loosely Aligned Summaries [72.48439126769627]
個々の章ごとに詳細なマルチパラグラフの要約と組み合わせた231ストーリーのデータセットであるShmoop Corpusを紹介します。
コーパスから、クローズ形式の質問応答や抽象的要約の簡易な形式を含む共通のNLPタスクのセットを構築する。
このコーパスのユニークな構造は、マシンストーリーの理解をより親しみやすいものにするための重要な基盤となると信じている。
論文 参考訳(メタデータ) (2019-12-30T21:03:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。