論文の概要: A Multi-view Multi-task Learning Framework for Multi-variate Time Series
Forecasting
- arxiv url: http://arxiv.org/abs/2109.01657v1
- Date: Thu, 2 Sep 2021 06:11:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 05:36:28.335225
- Title: A Multi-view Multi-task Learning Framework for Multi-variate Time Series
Forecasting
- Title(参考訳): 多変量時系列予測のためのマルチビューマルチタスク学習フレームワーク
- Authors: Jinliang Deng, Xiusi Chen, Renhe Jiang, Xuan Song, Ivor W. Tsang
- Abstract要約: MTS予測のための新しいマルチビューマルチタスク(MVMT)学習フレームワークを提案する。
MVMT情報は、MTSデータに深く隠され、モデルが自然にそれをキャプチャすることを妨げる。
タスクワイドアフィン変換とタスクワイド正規化という,2種類の基本操作をそれぞれ開発する。
- 参考スコア(独自算出の注目度): 42.061275727906256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-variate time series (MTS) data is a ubiquitous class of data
abstraction in the real world. Any instance of MTS is generated from a hybrid
dynamical system and their specific dynamics are usually unknown. The hybrid
nature of such a dynamical system is a result of complex external attributes,
such as geographic location and time of day, each of which can be categorized
into either spatial attributes or temporal attributes. Therefore, there are two
fundamental views which can be used to analyze MTS data, namely the spatial
view and the temporal view. Moreover, from each of these two views, we can
partition the set of data samples of MTS into disjoint forecasting tasks in
accordance with their associated attribute values. Then, samples of the same
task will manifest similar forthcoming pattern, which is less sophisticated to
be predicted in comparison with the original single-view setting. Considering
this insight, we propose a novel multi-view multi-task (MVMT) learning
framework for MTS forecasting. Instead of being explicitly presented in most
scenarios, MVMT information is deeply concealed in the MTS data, which severely
hinders the model from capturing it naturally. To this end, we develop two
kinds of basic operations, namely task-wise affine transformation and task-wise
normalization, respectively. Applying these two operations with prior knowledge
on the spatial and temporal view allows the model to adaptively extract MVMT
information while predicting. Extensive experiments on three datasets are
conducted to illustrate that canonical architectures can be greatly enhanced by
the MVMT learning framework in terms of both effectiveness and efficiency. In
addition, we design rich case studies to reveal the properties of
representations produced at different phases in the entire prediction
procedure.
- Abstract(参考訳): MTS(Multi-variate Time Series)データは、現実世界におけるデータ抽象化のユビキタスクラスである。
MTSの任意のインスタンスはハイブリッド力学系から生成され、その特定のダイナミクスは通常不明である。
このような力学系のハイブリッドな性質は、地理的な位置や日時といった複雑な外的属性の結果であり、それぞれの属性は空間的属性または時間的属性に分類できる。
したがって、MSSデータ、すなわち空間ビューと時間ビューを分析するために使用できる2つの基本的なビューがある。
さらに,これら2つのビューのそれぞれから,MSSのデータサンプルの集合を,それらの属性値に応じて不整合予測タスクに分割することができる。
そして、同じタスクのサンプルが、同じパターンを示す。これは、元のシングルビュー設定と比較して予測されるほど洗練されていない。
そこで本研究では,MTS予測のための新しいマルチビューマルチタスク(MVMT)学習フレームワークを提案する。
ほとんどのシナリオで明示的に提示される代わりに、mvmt情報はmtsデータに深く隠蔽され、モデルがそれを自然に捉えるのを著しく妨げます。
この目的のために,タスクワイドアフィン変換とタスクワイド正規化という2種類の基本演算を開発した。
これら2つの操作と事前知識を空間的および時間的視点に適用することにより、予測中にMVMT情報を適応的に抽出することができる。
3つのデータセットの大規模な実験を行い、MVMT学習フレームワークにより、有効性と効率の両面において、標準的アーキテクチャが大幅に向上可能であることを示す。
さらに,予測手順全体の異なるフェーズで生成される表現の特性を明らかにするために,リッチケーススタディを設計した。
関連論文リスト
- UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - Deciphering Movement: Unified Trajectory Generation Model for Multi-Agent [53.637837706712794]
任意の軌道をマスク入力として処理する統一軌道生成モデルUniTrajを提案する。
具体的には,空間特徴抽出のためのトランスフォーマーエンコーダ内に埋め込まれたゴースト空間マスキング(GSM)モジュールを導入する。
バスケットボール-U,サッカー-U,サッカー-Uの3つの実用的なスポーツゲームデータセットをベンチマークして評価を行った。
論文 参考訳(メタデータ) (2024-05-27T22:15:23Z) - MTP: Advancing Remote Sensing Foundation Model via Multi-Task Pretraining [73.81862342673894]
ファンデーションモデルは、様々な画像解釈タスクを強化することで、リモートセンシング(RS)のランドスケープを再構築した。
事前訓練されたモデルを下流のタスクに転送することは、イメージ分類やオブジェクト識別タスクとして事前訓練の定式化によるタスクの相違に遭遇する可能性がある。
SAMRSデータセット上で、セマンティックセグメンテーション、インスタンスセグメンテーション、回転オブジェクト検出を含むマルチタスクによる事前トレーニングを行う。
我々のモデルは、シーン分類、水平・回転物体検出、セマンティックセグメンテーション、変化検出など、様々なRS下流タスクに基づいて微調整される。
論文 参考訳(メタデータ) (2024-03-20T09:17:22Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z) - Latent Processes Identification From Multi-View Time Series [17.33428123777779]
本稿では,データ生成過程を逆転させて識別可能性を高めるために,コントラスト学習技術を用いた新しいフレームワークを提案する。
MuLTIは、最適輸送公式の確立によって、対応する重複変数をマージする置換機構を統合する。
論文 参考訳(メタデータ) (2023-05-14T14:21:58Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Multi-Task Dynamical Systems [5.881614676989161]
時系列データセットは、しばしば同じドメインから、異なるエンティティから、様々なシーケンスから構成される。
本稿では,マルチタスク学習(MTL)を時系列モデルに拡張する一般的な手法であるMTDSについて述べる。
MTDSをマルチタスクリカレントニューラルネットワーク(RNN)を用いて歩く人々のモーションキャプチャーデータに適用し,マルチタスク薬理力学モデルを用いた患者薬物応答データに適用した。
論文 参考訳(メタデータ) (2022-10-08T13:37:55Z) - Learning Behavior Representations Through Multi-Timescale Bootstrapping [8.543808476554695]
本稿では,行動のマルチスケール表現学習モデルであるBootstrap Across Multiple Scales (BAMS)を紹介する。
まず,異なる地形タイプをナビゲートする四足歩行のデータセットに本手法を適用し,そのモデルが行動の時間的複雑さを捉えていることを示す。
論文 参考訳(メタデータ) (2022-06-14T17:57:55Z) - Scale-Aware Neural Architecture Search for Multivariate Time Series
Forecasting [7.877931505819402]
MTS予測のためのスケール対応ニューラルネットワーク探索フレームワーク(SNAS4MTF)を提案する。
マルチスケール分解モジュールは、生の時系列をマルチスケールサブシリーズに変換する。
適応グラフ学習モジュールは、異なる時間スケールで異なる変数間の依存関係を推論する。
論文 参考訳(メタデータ) (2021-12-14T15:14:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。