論文の概要: TLNets: Transformation Learning Networks for long-range time-series
prediction
- arxiv url: http://arxiv.org/abs/2305.15770v1
- Date: Thu, 25 May 2023 06:27:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 16:55:40.296472
- Title: TLNets: Transformation Learning Networks for long-range time-series
prediction
- Title(参考訳): TLNets:長距離時系列予測のための変換学習ネットワーク
- Authors: Wei Wang, Yang Liu, Hao Sun
- Abstract要約: 本稿では,変換に基づくネットワークアーキテクチャ設計のための新しい計画を提案する。
上記の構成ブロックに基づいて,FT-Matrix,FT-SVD,FT-Conv,Conv-SVDの4つの学習モデルを開発した。
上記のトランスフォーメーション学習ネットワーク(TLNet)は、複数のベースラインモデルと比較して、広範囲にテストされている。
- 参考スコア(独自算出の注目度): 17.844048490712016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series prediction is a prevalent issue across various disciplines, such
as meteorology, traffic surveillance, investment, and energy production and
consumption. Many statistical and machine-learning strategies have been
developed to tackle this problem. However, these approaches either lack
explainability or exhibit less satisfactory performance when the prediction
horizon increases. To this end, we propose a novel plan for the designing of
networks' architecture based on transformations, possessing the potential to
achieve an enhanced receptive field in learning which brings benefits to fuse
features across scales. In this context, we introduce four different
transformation mechanisms as bases to construct the learning model including
Fourier Transform (FT), Singular Value Decomposition (SVD), matrix
multiplication and Conv block. Hence, we develop four learning models based on
the above building blocks, namely, FT-Matrix, FT-SVD, FT-Conv, and Conv-SVD.
Note that the FT and SVD blocks are capable of learning global information,
while the Conv blocks focus on learning local information. The matrix block is
sparsely designed to learn both global and local information simultaneously.
The above Transformation Learning Networks (TLNets) have been extensively
tested and compared with multiple baseline models based on several real-world
datasets and showed clear potential in long-range time-series forecasting.
- Abstract(参考訳): 時系列予測は気象学、交通監視、投資、エネルギー生産と消費といった様々な分野において一般的な問題である。
多くの統計的および機械学習戦略がこの問題に対処するために開発されている。
しかし、これらのアプローチは説明性に欠けるか、予測水平線が大きくなると満足度が低下する。
そこで本稿では,ネットワークアーキテクチャを変換に基づいて設計する新たな計画を提案する。
本稿では,Fourier Transform (FT), Singular Value Decomposition (SVD), matrix multiplication, Conv blockなどの学習モデルを構築するために,4つの異なる変換機構をベースとして導入する。
そこで,本研究では,FT-Matrix,FT-SVD,FT-Conv,Conv-SVDの4つの学習モデルを構築した。
FTブロックとSVDブロックはグローバル情報を学ぶことができるが、Convブロックはローカル情報を学ぶことに集中している。
マトリックスブロックは、グローバル情報とローカル情報の両方を同時に学習するように設計されている。
上記のトランスフォーメーション学習ネットワーク(TLNet)は、複数の実世界のデータセットに基づく複数のベースラインモデルと比較され、長距離時系列予測における明確な可能性を示している。
関連論文リスト
- Transfer Learning on Transformers for Building Energy Consumption Forecasting -- A Comparative Study [0.9653538131757154]
本研究では,トランスフォーマーアーキテクチャへのトランスファーラーニング(TL)の適用について検討した。
我々は、ビルディングデータゲノムプロジェクト2から16のデータセットを使用して、ビルディングエネルギー消費予測モデルを作成します。
本研究は, TLやTransformerアーキテクチャといった先進的な手法による建築エネルギー消費予測を推し進めるものである。
論文 参考訳(メタデータ) (2024-10-18T01:26:04Z) - OnDev-LCT: On-Device Lightweight Convolutional Transformers towards
federated learning [29.798780069556074]
フェデレートラーニング(FL)は、複数のエッジデバイスにまたがる機械学習モデルを協調的にトレーニングするための、有望なアプローチとして登場した。
トレーニングデータとリソースに制限のあるオンデバイスビジョンタスクのための軽量畳み込み変換器を提案する。
論文 参考訳(メタデータ) (2024-01-22T02:17:36Z) - Spatiotemporal-Linear: Towards Universal Multivariate Time Series
Forecasting [10.404951989266191]
本稿ではSTL(Spatio-Temporal-Linear)フレームワークを紹介する。
STLは、Linearベースのアーキテクチャを拡張するために、時間組込みと空間インフォームドのバイパスをシームレスに統合する。
実証的な証拠は、さまざまな観測時間と予測期間とデータセットにわたって、LinearとTransformerのベンチマークを上回り、STLの成果を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-12-22T17:46:34Z) - FedConv: Enhancing Convolutional Neural Networks for Handling Data
Heterogeneity in Federated Learning [34.37155882617201]
フェデレーション・ラーニング(FL)は機械学習における新たなパラダイムであり、共有モデルは複数のデバイスからのデータを使って協調的に学習される。
活性化関数や正規化層などの異なるアーキテクチャ要素が異種FLの性能に与える影響を系統的に検討する。
以上の結果から,戦略的アーキテクチャ変更により,純粋なCNNは,VTと一致するか,あるいは超えるようなロバスト性を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-06T17:57:50Z) - PDSketch: Integrated Planning Domain Programming and Learning [86.07442931141637]
我々は PDSketch という新しいドメイン定義言語を提案する。
これにより、ユーザーはトランジションモデルで柔軟にハイレベルな構造を定義できる。
移行モデルの詳細は、トレーニング可能なニューラルネットワークによって満たされる。
論文 参考訳(メタデータ) (2023-03-09T18:54:12Z) - Online learning of windmill time series using Long Short-term Cognitive
Networks [58.675240242609064]
風車農場で生成されたデータの量は、オンライン学習が従うべき最も有効な戦略となっている。
我々はLong Short-term Cognitive Networks (LSTCNs) を用いて、オンライン環境での風車時系列を予測する。
提案手法は,単純なRNN,長期記憶,Gated Recurrent Unit,Hidden Markov Modelに対して最も低い予測誤差を報告した。
論文 参考訳(メタデータ) (2021-07-01T13:13:24Z) - Efficient Training of Visual Transformers with Small-Size Datasets [64.60765211331697]
進化的ネットワーク(CNN)に代わるアーキテクチャパラダイムとして、ビジュアルトランスフォーマー(VT)が登場している。
ImageNetでトレーニングされた場合、同等の精度を持つにもかかわらず、より小さなデータセットでのパフォーマンスは、大きく異なる可能性があることを示す。
本稿では,計算オーバーヘッドの少ない画像から追加情報を抽出できる自己教師型タスクを提案する。
論文 参考訳(メタデータ) (2021-06-07T16:14:06Z) - ViTAE: Vision Transformer Advanced by Exploring Intrinsic Inductive Bias [76.16156833138038]
コンボリューション, ie, ViTAEから内在性IBを探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
各トランス層では、ViTAEはマルチヘッド自己保持モジュールと平行な畳み込みブロックを持ち、その特徴は融合されフィードフォワードネットワークに供給される。
論文 参考訳(メタデータ) (2021-06-07T05:31:06Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - Learning across label confidence distributions using Filtered Transfer
Learning [0.44040106718326594]
本稿では,大きな可変信頼度データセットを持つノイズの多いデータシステムにおいて,予測能力を向上させるための伝達学習手法を提案する。
本稿では、複数の階層のデータ信頼度を個別のタスクとして定義する、FTL(Filted Transfer Learning)と呼ばれるディープニューラルネットワーク手法を提案する。
FTLを用いてラベル信頼度分布を段階的に学習すると、単一の信頼範囲でトレーニングされたディープニューラルネットワークモデルよりも高いパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2020-06-03T21:00:11Z) - Meta-learning framework with applications to zero-shot time-series
forecasting [82.61728230984099]
この研究は幅広いメタラーニングフレームワークを使って肯定的な証拠を提供する。
残余接続はメタラーニング適応機構として機能する。
我々は、ソースTSデータセット上でニューラルネットワークをトレーニングし、異なるターゲットTSデータセット上で再トレーニングすることなくデプロイできることを示します。
論文 参考訳(メタデータ) (2020-02-07T16:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。