論文の概要: UniTime: A Language-Empowered Unified Model for Cross-Domain Time Series
Forecasting
- arxiv url: http://arxiv.org/abs/2310.09751v3
- Date: Fri, 23 Feb 2024 05:17:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 17:58:28.737076
- Title: UniTime: A Language-Empowered Unified Model for Cross-Domain Time Series
Forecasting
- Title(参考訳): unitime:クロスドメイン時系列予測のための言語統合モデル
- Authors: Xu Liu, Junfeng Hu, Yuan Li, Shizhe Diao, Yuxuan Liang, Bryan Hooi,
Roger Zimmermann
- Abstract要約: この研究はドメイン境界を超越する統一モデルパラダイムを提唱する。
効果的なクロスドメインモデルを学ぶことは、以下の課題を提示します。
効果的なドメイン間時系列学習のためのUniTimeを提案する。
- 参考スコア(独自算出の注目度): 59.11817101030137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multivariate time series forecasting plays a pivotal role in contemporary web
technologies. In contrast to conventional methods that involve creating
dedicated models for specific time series application domains, this research
advocates for a unified model paradigm that transcends domain boundaries.
However, learning an effective cross-domain model presents the following
challenges. First, various domains exhibit disparities in data characteristics,
e.g., the number of variables, posing hurdles for existing models that impose
inflexible constraints on these factors. Second, the model may encounter
difficulties in distinguishing data from various domains, leading to suboptimal
performance in our assessments. Third, the diverse convergence rates of time
series domains can also result in compromised empirical performance. To address
these issues, we propose UniTime for effective cross-domain time series
learning. Concretely, UniTime can flexibly adapt to data with varying
characteristics. It also uses domain instructions and a Language-TS Transformer
to offer identification information and align two modalities. In addition,
UniTime employs masking to alleviate domain convergence speed imbalance issues.
Our extensive experiments demonstrate the effectiveness of UniTime in advancing
state-of-the-art forecasting performance and zero-shot transferability.
- Abstract(参考訳): 多変量時系列予測は、現代のウェブ技術において重要な役割を果たす。
特定の時系列アプリケーションドメイン専用のモデルを作成する従来の手法とは対照的に、本研究ではドメイン境界を超越する統一モデルパラダイムを提唱する。
しかし、効果的なクロスドメインモデルを学ぶことは以下の課題を示している。
まず、様々なドメインはデータ特性の相違、例えば変数の数、これらの要因に柔軟性のない制約を課す既存のモデルのハードルを示す。
第2に、このモデルは様々な領域からデータを区別する上で困難に直面する可能性がある。
第3に、時系列領域の様々な収束率もまた、経験的性能を損なう可能性がある。
これらの課題に対処するため,ドメイン間時系列学習に有効なUniTimeを提案する。
具体的には、UniTimeは様々な特性を持つデータに柔軟に対応できる。
また、ドメイン命令とLanguage-TS Transformerを使用して識別情報を提供し、2つのモダリティを調整する。
さらにUniTimeは、ドメイン収束速度の不均衡の問題を軽減するためにマスキングを使用している。
我々は,UniTimeの最先端予測性能およびゼロショット転送性向上における有効性を示す。
関連論文リスト
- Towards Generalisable Time Series Understanding Across Domains [10.350643783811174]
一般時系列解析のためのオープンモデルであるOTiSを紹介する。
本稿では,学習可能なドメイン固有シグネチャを持つトークンマイザを含む,新しい事前学習パラダイムを提案する。
我々のモデルは、8つの異なるドメインにまたがる640,187個のサンプルと11億個のタイムポイントからなる大規模なコーパスで事前訓練されている。
論文 参考訳(メタデータ) (2024-10-09T17:09:30Z) - Towards Long-Context Time Series Foundation Models [17.224575072056627]
時系列基礎モデルは、ゼロショットの設定であっても、幅広い領域にわたる様々なタスクにおいて印象的なパフォーマンスを示している。
本研究は,言語領域と時系列領域の両方から,様々な文脈展開手法を体系的に比較することによって,ギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-09-20T14:19:59Z) - Cross-Domain Pre-training with Language Models for Transferable Time Series Representations [32.8353465232791]
CrossTimeNetは、さまざまなドメインから転送可能な知識を学ぶための、新しいクロスドメインSSL学習フレームワークである。
CrossTimeNetの重要な特徴の1つは、新しく設計された時系列トークン化モジュールである。
我々は、様々な時系列分類領域にわたる実世界のシナリオにおいて広範な実験を行う。
論文 参考訳(メタデータ) (2024-03-19T02:32:47Z) - PDETime: Rethinking Long-Term Multivariate Time Series Forecasting from
the perspective of partial differential equations [49.80959046861793]
本稿では,ニューラルPDEソルバの原理に着想を得た新しいLMTFモデルであるPDETimeを提案する。
7つの異なる時間的実世界のLMTFデータセットを用いた実験により、PDETimeがデータ固有の性質に効果的に適応できることが判明した。
論文 参考訳(メタデータ) (2024-02-25T17:39:44Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Optimal Event Monitoring through Internet Mashup over Multivariate Time
Series [77.34726150561087]
このフレームワークは、モデル定義、クエリ、パラメータ学習、モデル評価、データ監視、決定レコメンデーション、Webポータルのサービスをサポートする。
さらに、MTSAデータモデルとクエリ言語を拡張して、学習、監視、レコメンデーションのサービスにおいて、この種の問題をサポートする。
論文 参考訳(メタデータ) (2022-10-18T16:56:17Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Cross-domain Time Series Forecasting with Attention Sharing [10.180248006928107]
本稿では,データ不足問題に対処する新しいドメイン適応フレームワークであるDomain Adaptation Forecaster(DAF)を提案する。
特に、ドメイン間のドメイン識別器と、個々のドメインに対するプリベートモジュールを備えたアテンションベースの共有モジュールを提案する。
これにより、ドメイン固有の機能をトレーニングしながら、ドメイン不変の潜在機能を生成させることで、ソースとターゲットドメインを共同でトレーニングすることができる。
論文 参考訳(メタデータ) (2021-02-13T00:26:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。