論文の概要: Examining the State-of-the-Art in News Timeline Summarization
- arxiv url: http://arxiv.org/abs/2005.10107v1
- Date: Wed, 20 May 2020 15:06:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 05:31:56.410837
- Title: Examining the State-of-the-Art in News Timeline Summarization
- Title(参考訳): ニュースタイムライン要約における現状の検討
- Authors: Demian Gholipour Ghalandari and Georgiana Ifrim
- Abstract要約: 自動ニュースタイムライン要約(TLS)に関するこれまでの研究は、このタスクが一般的にどのようにアプローチされるのか、現在どのように解決されているのかについて、不明瞭な見解を残している。
これは主に、日付の選択や日付の要約といった個別のサブタスクに焦点が当てられていることと、TLSタスクに対する以前の適切な評価基準の欠如が原因である。
本稿では、適切な評価フレームワークを用いて異なるTLS戦略を比較し、テストされた全てのベンチマークの最先端性を改善する方法の単純かつ効果的な組み合わせを提案する。
- 参考スコア(独自算出の注目度): 10.16257074782054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous work on automatic news timeline summarization (TLS) leaves an
unclear picture about how this task can generally be approached and how well it
is currently solved. This is mostly due to the focus on individual subtasks,
such as date selection and date summarization, and to the previous lack of
appropriate evaluation metrics for the full TLS task. In this paper, we compare
different TLS strategies using appropriate evaluation frameworks, and propose a
simple and effective combination of methods that improves over the
state-of-the-art on all tested benchmarks. For a more robust evaluation, we
also present a new TLS dataset, which is larger and spans longer time periods
than previous datasets.
- Abstract(参考訳): tls(automatic news timeline summarization)に関する以前の作業は、このタスクが一般的にどのようにアプローチされ、現在どのように解決されているのか、はっきりしない部分を残している。
これは主に、日付の選択や日付の要約といった個別のサブタスクに焦点が当てられていることと、TLSタスクに対する以前の適切な評価基準の欠如が原因である。
本稿では,様々なtls戦略を適切な評価フレームワークを用いて比較し,テスト済みベンチマークの最先端性能を向上させる手法の簡易かつ効果的な組み合わせを提案する。
より堅牢な評価のために、我々はまた、以前のデータセットよりも大きく、長い時間にまたがる新しいtlsデータセットも提示する。
関連論文リスト
- UniTTA: Unified Benchmark and Versatile Framework Towards Realistic Test-Time Adaptation [66.05528698010697]
Test-Time Adaptationは、テスト中にトレーニング済みのモデルを対象のドメインに適応させることを目的としている。
研究者は様々な挑戦シナリオを特定し、これらの課題に対処するための様々な方法を開発した。
本稿では,包括的かつ広く適用可能な統一テスト時間適応ベンチマークを提案する。
論文 参考訳(メタデータ) (2024-07-29T15:04:53Z) - Write Summary Step-by-Step: A Pilot Study of Stepwise Summarization [48.57273563299046]
本稿では,新たな文書が提案されるたびに追加の要約を生成するステップワイド要約の課題を提案する。
追加された要約は、新たに追加されたコンテンツを要約するだけでなく、以前の要約と一貫性を持たなければならない。
SSGは,自動計測と人的評価の両面から,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-06-08T05:37:26Z) - Analyzing Temporal Complex Events with Large Language Models? A Benchmark towards Temporal, Long Context Understanding [57.62275091656578]
時間的複合イベント(TCE)として、長い期間にわたって多くのニュース記事から構成される複合イベントについて述べる。
本稿では,Large Language Models (LLMs) を用いて,TCE内のイベントチェーンを系統的に抽出し,解析する手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T16:42:17Z) - Text-Tuple-Table: Towards Information Integration in Text-to-Table Generation via Global Tuple Extraction [36.915250638481986]
リアルタイムのコメンタリーテキストに基づいたコンペの要約表を生成するためのベンチマークデータセットであるLiveSumを紹介する。
我々は,このタスクにおける最先端の大規模言語モデルの性能を,微調整とゼロショットの両方で評価する。
さらに、パフォーマンスを改善するために、$T3$(Text-Tuple-Table)と呼ばれる新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-04-22T14:31:28Z) - Background Summarization of Event Timelines [13.264991569806572]
本稿では、各時系列更新と関連するイベントの背景要約を補完するバックグラウンドニュース要約のタスクを紹介する。
我々は,既存の時系列データセットをマージしてデータセットを構築し,各ニュースイベント毎の背景要約を書くよう人間アノテータに依頼する。
我々は、最先端の要約システムを用いて強力なベースライン性能を確立し、背景要約を生成するためのクエリ中心の変種を提案する。
論文 参考訳(メタデータ) (2023-10-24T21:30:15Z) - Prior-Free Continual Learning with Unlabeled Data in the Wild [24.14279172551939]
本稿では,新しいタスクの学習モデルを段階的に更新するPFCL法を提案する。
PFCLはタスクのアイデンティティや以前のデータを知ることなく、新しいタスクを学習する。
実験の結果,PFCL法は3つの学習シナリオすべてにおいて,忘れを著しく軽減することがわかった。
論文 参考訳(メタデータ) (2023-10-16T13:59:56Z) - Evaluation of Faithfulness Using the Longest Supported Subsequence [52.27522262537075]
本稿では,文脈によって支持される請求項の最長不連続性を計算し,機械生成テキストの忠実さを評価する新しい手法を提案する。
新しい人間アノテーション付きデータセットを使用して、モデルを微調整してLongest Supported Subsequence(LSS)を生成する。
提案手法は,我々のデータセットの忠実度に対する最先端のメトリクスよりも18%向上していることを示す。
論文 参考訳(メタデータ) (2023-08-23T14:18:44Z) - RDumb: A simple approach that questions our progress in continual test-time adaptation [12.374649969346441]
テスト時間適応(TTA)では、事前トレーニングされたモデルをデプロイ時にデータ配布を変更するように更新することができる。
近年の長期にわたる連続的適応手法の提案と適用方法が提案されている。
最終的には、最先端の1つのメソッド以外はすべて崩壊し、非適応モデルよりもパフォーマンスが悪くなることに気付きました。
論文 参考訳(メタデータ) (2023-06-08T17:52:34Z) - Test-Time Prompt Tuning for Zero-Shot Generalization in Vision-Language
Models [107.05966685291067]
テスト時間プロンプトチューニング (TPT) を提案し, 適応的なプロンプトを1つのテストサンプルで学習する。
TPTはCLIPのゼロショットトップ1の精度を平均3.6%改善する。
クロスデータセットの一般化を目に見えないカテゴリで評価する際、PTは追加のトレーニングデータを使用する最先端のアプローチと同等に機能する。
論文 参考訳(メタデータ) (2022-09-15T17:55:11Z) - The Surprising Performance of Simple Baselines for Misinformation
Detection [4.060731229044571]
我々は、現代のトランスフォーマーベースの言語モデルの広いセットのパフォーマンスを調べます。
誤情報検出の新たな手法の創出と評価のベースラインとして,本フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-14T16:25:22Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。