論文の概要: DTELS: Towards Dynamic Granularity of Timeline Summarization
- arxiv url: http://arxiv.org/abs/2411.09297v1
- Date: Thu, 14 Nov 2024 09:16:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:22:28.540337
- Title: DTELS: Towards Dynamic Granularity of Timeline Summarization
- Title(参考訳): DTELS: タイムライン要約の動的粒度に向けて
- Authors: Chenlong Zhang, Tong Zhou, Pengfei Cao, Zhuoran Jin, Yubo Chen, Kang Liu, Jun Zhao,
- Abstract要約: 我々は,ユーザ命令や要求に基づいて適応タイムラインを構築することを目的とした新しいパラダイムである動的粒度TimELine Summarization(DTELS)を導入する。
本稿では,(1)4次元にわたるタイムライン品質を評価するためのジャーナリスト標準に基づく評価フレームワーク,(2)複数の粒度タイムラインアノテーションを用いた大規模マルチソースデータセット,(3)大規模言語モデル(LLM)に基づく2つの提案されたソリューションによる広範な実験と分析を含む,DTLESの総合的ベンチマークを確立する。
- 参考スコア(独自算出の注目度): 23.375978839341855
- License:
- Abstract: The rapid proliferation of online news has posed significant challenges in tracking the continuous development of news topics. Traditional timeline summarization constructs a chronological summary of the events but often lacks the flexibility to meet the diverse granularity needs. To overcome this limitation, we introduce a new paradigm, Dynamic-granularity TimELine Summarization, (DTELS), which aims to construct adaptive timelines based on user instructions or requirements. This paper establishes a comprehensive benchmark for DTLES that includes: (1) an evaluation framework grounded in journalistic standards to assess the timeline quality across four dimensions: Informativeness, Granular Consistency, Factuality, and Coherence; (2) a large-scale, multi-source dataset with multiple granularity timeline annotations based on a consensus process to facilitate authority; (3) extensive experiments and analysis with two proposed solutions based on Large Language Models (LLMs) and existing state-of-the-art TLS methods. The experimental results demonstrate the effectiveness of LLM-based solutions. However, even the most advanced LLMs struggle to consistently generate timelines that are both informative and granularly consistent, highlighting the challenges of the DTELS task.
- Abstract(参考訳): オンラインニュースの急速な普及は、ニューストピックの継続的な発展を追跡する上で大きな課題となっている。
伝統的な時系列要約は、出来事の時系列的な要約を構成するが、多種多様な粒度のニーズを満たす柔軟性に欠けることが多い。
この制限を克服するために、ユーザ命令や要求に基づいて適応タイムラインを構築することを目的とした新しいパラダイムである動的粒度TimELine Summarization(DTELS)を導入する。
本稿では,(1)4次元にわたるタイムライン品質を評価するためのジャーナリスト標準に基づく評価フレームワーク,(2)複数の粒度タイムラインアノテーションを持つ大規模マルチソースデータセット,(3)大規模言語モデル(LLM)と既存の最先端TLS手法に基づく2つの提案されたソリューションによる広範な実験と分析を含む,DTLESの総合的なベンチマークを確立する。
実験により, LLM法の有効性が示された。
しかしながら、最も先進的なLLMでさえ、DTELSタスクの課題を浮き彫りにして、情報的かつ粒度的に一貫性のあるタイムラインを一貫して生成するのに苦労している。
関連論文リスト
- Hierarchical Multimodal LLMs with Semantic Space Alignment for Enhanced Time Series Classification [4.5939667818289385]
HiTimeは階層的なマルチモーダルモデルであり、時間的情報を大きな言語モデルにシームレスに統合する。
本研究は, 時間的特徴をLCMに組み込むことにより, 時系列解析の進歩に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-24T12:32:19Z) - Prompting and Fine-Tuning of Small LLMs for Length-Controllable Telephone Call Summarization [33.67670065326008]
本稿では,大規模言語モデル(LLM)を用いた電話要約システムの迅速な開発について検討する。
Llama-2-7Bの微調整による要約モデルでは,実測精度,完全性,簡潔性の観点から,GPT-4と同等に動作することがわかった。
論文 参考訳(メタデータ) (2024-10-24T10:32:10Z) - Temporally Consistent Factuality Probing for Large Language Models [16.177991267568125]
本稿では, 時間的に一貫性のある課題であるTeCFaPを紹介する。
既存のメトリクスの定義を拡張して、時間次元にわたって一貫した事実性を表現します。
次に,マルチタスク・インストラクション・チューニング(MT-IT)と一貫した時間依存性強化学習(CTSRL)を組み合わせた新しいソリューションCoTSeLFを提案する。
論文 参考訳(メタデータ) (2024-09-21T08:41:08Z) - A Practitioner's Guide to Continual Multimodal Pretraining [83.63894495064855]
マルチモーダル・ファンデーション・モデルは視覚と言語を交わす多くのアプリケーションに役立っている。
モデルを更新し続けるために、継続事前トレーニングの研究は主に、大規模な新しいデータに対する頻度の低い、差別的な更新、あるいは頻繁に行われるサンプルレベルの更新のシナリオを探求する。
本稿では,FoMo-in-Flux(FoMo-in-Flux)について紹介する。
論文 参考訳(メタデータ) (2024-08-26T17:59:01Z) - Decision Mamba: A Multi-Grained State Space Model with Self-Evolution Regularization for Offline RL [57.202733701029594]
決定マンバ(Decision Mamba)は、自己進化的な政策学習戦略を持つ、新しい多粒状態空間モデルである。
雑音性軌道上における過度に適合する問題を緩和するために,進行正則化を用いて自己進化政策を提案する。
この政策は、自身の過去の知識を用いて、準最適動作を洗練させ、ノイズの多い実演における堅牢性を高めることで進化する。
論文 参考訳(メタデータ) (2024-06-08T10:12:00Z) - Analyzing Temporal Complex Events with Large Language Models? A Benchmark towards Temporal, Long Context Understanding [57.62275091656578]
時間的複合イベント(TCE)として、長い期間にわたって多くのニュース記事から構成される複合イベントについて述べる。
本稿では,Large Language Models (LLMs) を用いて,TCE内のイベントチェーンを系統的に抽出し,解析する手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T16:42:17Z) - Scalable Language Model with Generalized Continual Learning [58.700439919096155]
The Joint Adaptive Re-ization (JARe) is integrated with Dynamic Task-related Knowledge Retrieval (DTKR) to enable adapt adjust of language model based on specific downstream task。
提案手法は,様々なバックボーンやベンチマーク上での最先端性能を実証し,最小限の忘れを伴い,フルセットおよび少数ショットのシナリオにおいて効果的な連続学習を実現する。
論文 参考訳(メタデータ) (2024-04-11T04:22:15Z) - Empowering Time Series Analysis with Large Language Models: A Survey [24.202539098675953]
本稿では,大規模言語モデルを用いた時系列解析手法の体系的概要について述べる。
具体的には、まず、時系列の文脈で言語モデルを適用する際の課題とモチベーションについて述べる。
次に、既存のメソッドを異なるグループ(ダイレクトクエリ、トークン化、プロンプトデザイン、ファインチューン、モデル統合)に分類し、各グループにおける主要なアイデアを強調します。
論文 参考訳(メタデータ) (2024-02-05T16:46:35Z) - Chain of History: Learning and Forecasting with LLMs for Temporal
Knowledge Graph Completion [24.545917737620197]
時間知識グラフ補完(TKGC)は、将来のタイムスタンプにおけるイベントリンクの欠落を予測する複雑なタスクである。
本稿では,時間的知識グラフの推論において,大規模言語モデルの利点を活用するための総合的な視点を提供することを目的とする。
論文 参考訳(メタデータ) (2024-01-11T17:42:47Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - MuSR: Testing the Limits of Chain-of-thought with Multistep Soft Reasoning [63.80739044622555]
自然言語ナラティブで指定されたソフト推論タスクの言語モデルを評価するデータセットである MuSR を紹介する。
このデータセットには2つの重要な特徴がある。まず、ニューロシンボリック合成-自然生成アルゴリズムによって生成される。
第二に、私たちのデータセットインスタンスは、実世界の推論の領域に対応する無料のテキスト物語です。
論文 参考訳(メタデータ) (2023-10-24T17:59:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。