論文の概要: Prioritizing Alignment Paradigms over Task-Specific Model Customization in Time-Series LLMs
- arxiv url: http://arxiv.org/abs/2506.11512v1
- Date: Fri, 13 Jun 2025 07:13:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.686493
- Title: Prioritizing Alignment Paradigms over Task-Specific Model Customization in Time-Series LLMs
- Title(参考訳): 時系列LLMにおけるタスク特化モデルカスタマイズによるアライメントパラダイムの優先順位付け
- Authors: Wei Li, Yunyao Cheng, Xinli Hao, Chaohong Ma, Yuxuan Liang, Bin Yang, Christian S. Jensen, Xiaofeng Meng,
- Abstract要約: 本稿では,Large Language Models (LLMs) を用いた時系列推論への移行を提唱する。
これは、しばしばコストがかかり、柔軟性がなく、非効率である現在の時系列推論アプローチの中核的な制限に対処する。
提案するアライメントパラダイムは,インジェクティブアライメント,ブリッジングアライメント,インテリアアライメントの3つである。
- 参考スコア(独自算出の注目度): 24.25288301208334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in Large Language Models (LLMs) have enabled unprecedented capabilities for time-series reasoning in diverse real-world applications, including medical, financial, and spatio-temporal domains. However, existing approaches typically focus on task-specific model customization, such as forecasting and anomaly detection, while overlooking the data itself, referred to as time-series primitives, which are essential for in-depth reasoning. This position paper advocates a fundamental shift in approaching time-series reasoning with LLMs: prioritizing alignment paradigms grounded in the intrinsic primitives of time series data over task-specific model customization. This realignment addresses the core limitations of current time-series reasoning approaches, which are often costly, inflexible, and inefficient, by systematically accounting for intrinsic structure of data before task engineering. To this end, we propose three alignment paradigms: Injective Alignment, Bridging Alignment, and Internal Alignment, which are emphasized by prioritizing different aspects of time-series primitives: domain, characteristic, and representation, respectively, to activate time-series reasoning capabilities of LLMs to enable economical, flexible, and efficient reasoning. We further recommend that practitioners adopt an alignment-oriented method to avail this instruction to select an appropriate alignment paradigm. Additionally, we categorize relevant literature into these alignment paradigms and outline promising research directions.
- Abstract(参考訳): 近年のLarge Language Models (LLM) の進歩により、医療、金融、時空間の領域を含む様々な現実世界の応用において、時系列推論のための前例のない機能を実現している。
しかしながら、既存のアプローチでは、予測や異常検出といったタスク固有のモデルのカスタマイズに重点を置いているのが一般的であるが、データ自体を見渡すことは、時間列プリミティブと呼ばれており、これは詳細な推論に必須である。
タスク固有のモデルのカスタマイズよりも時系列データの本質的なプリミティブに根ざしたアライメントパラダイムの優先順位付けを行う。
この再編成は、タスクエンジニアリングの前にデータ固有の構造を体系的に説明することによって、しばしばコストがかかり、柔軟性がなく、非効率である現在の時系列推論アプローチの中核的な制限に対処する。
そこで本研究では,LLMの時系列推論機能を活性化し,経済的,柔軟,効率的な推論を可能にするために,ドメイン,特徴,表現といった時系列プリミティブの異なる側面を優先することで強調される,射影アライメント,ブリッジングアライメント,内部アライメントの3つのアライメントパラダイムを提案する。
さらに、この命令を活用するためにアライメント指向の手法を採用し、適切なアライメントパラダイムを選択することを推奨する。
さらに、関連文献をこれらのアライメントパラダイムに分類し、有望な研究方向性を概説する。
関連論文リスト
- Enhancing LLM Reasoning for Time Series Classification by Tailored Thinking and Fused Decision [8.256998757769322]
ReasonTSC は時系列分類のための LLM 推論を活用するために設計されたフレームワークである。
時系列データの本質的な特性について、モデルを熟考する。
これは、例えばドメイン固有の時系列モデルのようなプラグイン分類器からの予測と信頼スコアを、インコンテキストの例として統合する。
論文 参考訳(メタデータ) (2025-06-01T03:15:54Z) - Efficient Model Selection for Time Series Forecasting via LLMs [52.31535714387368]
本稿では,Large Language Models (LLM) をモデル選択の軽量な代替手段として活用することを提案する。
提案手法は, LLMの固有知識と推論能力を活用することで, 明示的な性能行列の必要性を解消する。
論文 参考訳(メタデータ) (2025-04-02T20:33:27Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Domain-Oriented Time Series Inference Agents for Reasoning and Automated Analysis [19.649769354503658]
本稿では,自然言語推論と正確な数値実行を統合したドメイン指向時系列エージェントTS-Reasonerを紹介する。
基本時系列理解と複雑な多段階推論という2つの軸でその能力を評価する。
論文 参考訳(メタデータ) (2024-10-05T06:04:19Z) - tPARAFAC2: Tracking evolving patterns in (incomplete) temporal data [0.7285444492473742]
進化因子のスムーズな時間的正規化を利用する t(emporal)PARAFAC2 を導入する。
tPARAFAC2は、ノイズや欠落したデータの存在下で、最先端技術と比較して、より正確に進化するパターンを抽出できることを示す。
論文 参考訳(メタデータ) (2024-07-01T15:10:55Z) - UniCL: A Universal Contrastive Learning Framework for Large Time Series Models [18.005358506435847]
時系列分析は、金融から医療まで、さまざまな重要なアプリケーションにおいて重要な役割を果たす。
従来の教師付き学習手法は、まず各タスクにおける時系列データの広範なラベルを注釈付けする。
本稿では,時系列基礎モデルの事前学習を目的とした,普遍的でスケーラブルなコントラスト学習フレームワークUniCLを紹介する。
論文 参考訳(メタデータ) (2024-05-17T07:47:11Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Data-driven Preference Learning Methods for Sorting Problems with
Multiple Temporal Criteria [17.673512636899076]
本研究では,時間的基準が存在する場合の複数基準ソート問題に対する新しい選好学習手法を提案する。
スケーラビリティを向上し、学習可能な時間割引要素に対応するため、新しい単調リカレントニューラルネットワーク(mRNN)を導入する。
提案するmRNNは、時間とともに、限界値関数とパーソナライズされた時間割引係数を記述することにより、好みのダイナミクスを記述することができる。
論文 参考訳(メタデータ) (2023-09-22T05:08:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。