論文の概要: TIM: A Large-Scale Dataset and large Timeline Intelligence Model for Open-domain Timeline Summarization
- arxiv url: http://arxiv.org/abs/2506.21616v1
- Date: Sun, 22 Jun 2025 14:42:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:22.926717
- Title: TIM: A Large-Scale Dataset and large Timeline Intelligence Model for Open-domain Timeline Summarization
- Title(参考訳): TIM:オープンドメインタイムライン要約のための大規模データセットと大規模タイムラインインテリジェンスモデル
- Authors: Chuanrui Hu, Wei Hu, Penghang Yu, Hua Zhang, Bing-Kun Bao,
- Abstract要約: ニューストピックの進化を監視するためには,オープンドメインのタイムライン要約(TLS)が不可欠である。
既存の手法では一般的に、検索されたニュースから関連するタイムスタンプを要約するためにLLM(General Large Language Models)を用いる。
本稿では,オープンドメインTLSのための最初の大規模タイムラインインテリジェンスモデル(TIM)を提案する。
- 参考スコア(独自算出の注目度): 13.091922124063082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open-domain Timeline Summarization (TLS) is crucial for monitoring the evolution of news topics. To identify changes in news topics, existing methods typically employ general Large Language Models (LLMs) to summarize relevant timestamps from retrieved news. While general LLMs demonstrate capabilities in zero-shot news summarization and timestamp localization, they struggle with assessing topic relevance and understanding topic evolution. Consequently, the summarized information often includes irrelevant details or inaccurate timestamps. To address these issues, we propose the first large Timeline Intelligence Model (TIM) for open-domain TLS, which is capable of effectively summarizing open-domain timelines. Specifically, we begin by presenting a large-scale TLS dataset, comprising over 1,000 news topics and more than 3,000 annotated TLS instances. Furthermore, we propose a progressive optimization strategy, which gradually enhance summarization performance. It employs instruction tuning to enhance summarization and topic-irrelevant information filtering capabilities. Following this, it exploits a novel dual-alignment reward learning method that incorporates both semantic and temporal perspectives, thereby improving the understanding of topic evolution principles. Through this progressive optimization strategy, TIM demonstrates a robust ability to summarize open-domain timelines. Extensive experiments in open-domain demonstrate the effectiveness of our TIM.
- Abstract(参考訳): ニューストピックの進化を監視するためには,オープンドメインのタイムライン要約(TLS)が不可欠である。
ニューストピックの変更を特定するために、既存の手法は通常、検索されたニュースから関連するタイムスタンプを要約するために、一般的な大言語モデル(LLM)を使用する。
LLMは、ゼロショットニュース要約やタイムスタンプのローカライゼーションの能力を示すが、トピック関連性を評価し、トピックの進化を理解するのに苦労する。
その結果、要約された情報は、しばしば無関係な詳細または不正確なタイムスタンプを含む。
これらの課題に対処するために、オープンドメインTLSのための最初の大規模タイムラインインテリジェンスモデル(TIM)を提案する。
具体的には、1,000以上のニューストピックと3000以上の注釈付きTLSインスタンスからなる大規模なTLSデータセットを提示することから始める。
さらに,要約性能を徐々に向上させるプログレッシブ最適化戦略を提案する。
インストラクションチューニングを使用して、要約とトピック非関連情報フィルタリング機能を強化する。
これに続いて、意味的視点と時間的視点の両方を取り入れた新しい双対アライメント報酬学習手法を活用し、トピック進化原理の理解を深める。
このプログレッシブ最適化戦略を通じて、TIMはオープンドメインのタイムラインを要約する堅牢な能力を示す。
オープンドメインでの大規模な実験は、我々のTIMの有効性を実証する。
関連論文リスト
- LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - LAST SToP For Modeling Asynchronous Time Series [19.401463051705377]
Asynchronous Time Series に合わせたLarge Language Models (LLM) のための新しいプロンプト設計を提案する。
我々のアプローチはイベント記述のリッチな自然言語を効果的に活用し、LLMはさまざまなドメインやタスクをまたがる推論において、広範囲にわたる知識の恩恵を受けることができる。
さらに、モデル性能を大幅に向上させる新しいプロンプトチューニング機構であるSoft Promptingを導入し、QLoRAのような既存の微調整方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-02-04T01:42:45Z) - Unfolding the Headline: Iterative Self-Questioning for News Retrieval and Timeline Summarization [93.56166917491487]
本稿では,オープンドメインニュースタイムライン SummarizatiOn に対するCHRONOS-Causal Headline Retrieval を提案する。
実験の結果,Chronosはオープンドメインのタイムラインの要約に長けているだけでなく,クローズドドメインアプリケーション用に設計された既存の最先端システムの性能に匹敵していることがわかった。
論文 参考訳(メタデータ) (2025-01-01T16:28:21Z) - TableTime: Reformulating Time Series Classification as Training-Free Table Understanding with Large Language Models [14.880203496664963]
大規模言語モデル (LLM) は多変量時系列分類において有効であることを示した。
LLM は LLM の潜在空間内の時系列の埋め込みを直接コードし、LLM の意味空間と一致させる。
MTSCを表理解タスクとして再編成するテーブルタイムを提案する。
論文 参考訳(メタデータ) (2024-11-24T07:02:32Z) - Hierarchical Multimodal LLMs with Semantic Space Alignment for Enhanced Time Series Classification [4.5939667818289385]
HiTimeは階層的なマルチモーダルモデルであり、時間的情報を大きな言語モデルにシームレスに統合する。
本研究は, 時間的特徴をLCMに組み込むことにより, 時系列解析の進歩に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-24T12:32:19Z) - TPP-LLM: Modeling Temporal Point Processes by Efficiently Fine-Tuning Large Language Models [0.0]
時間的ポイントプロセス(TPP)は、ソーシャルネットワーク、交通システム、eコマースなどのドメインにおけるイベントのタイミングと発生をモデル化するために広く用いられている。
イベントシーケンスのセマンティックな側面と時間的側面の両方をキャプチャするために,大規模言語モデル(LLM)とTPPを統合する新しいフレームワークであるTPP-LLMを紹介する。
論文 参考訳(メタデータ) (2024-10-02T22:17:24Z) - Exploring User Retrieval Integration towards Large Language Models for Cross-Domain Sequential Recommendation [66.72195610471624]
Cross-Domain Sequential Recommendationは、異なるドメイン間でユーザのシーケンシャルな好みをマイニングし、転送することを目的としている。
本稿では,ユーザ検索手法を探索し,CDSRの性能向上を目的とした URLLM という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T09:19:54Z) - Follow the Timeline! Generating Abstractive and Extractive Timeline
Summary in Chronological Order [78.46986998674181]
時間順で抽象的かつ抽出的な時系列を生成できる統一タイムライン要約器(UTS)を提案する。
我々は、以前の中国の大規模タイムライン要約データセットを拡張し、新しい英語タイムラインデータセットを収集する。
UTSは、自動評価と人的評価の両方の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-01-02T20:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。