論文の概要: FPN-fusion: Enhanced Linear Complexity Time Series Forecasting Model
- arxiv url: http://arxiv.org/abs/2406.06603v1
- Date: Thu, 6 Jun 2024 14:34:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 21:04:26.913451
- Title: FPN-fusion: Enhanced Linear Complexity Time Series Forecasting Model
- Title(参考訳): FPN融合:線形複雑度時系列予測モデルの強化
- Authors: Chu Li, Pingjia Xiao, Qiping Yuan,
- Abstract要約: 本研究では,線形計算複雑性を考慮した新しい時系列予測モデルFPN-fusionを提案する。
まず、時系列データの特徴を効果的に把握するためにFPN(Feature Pyramid Network)が採用され、従来の分解からトレンドや季節的なコンポーネントへ変換される。
FPN融合は、8つのオープンソースデータセットで32ケース中31ケースでDLinerを上回り、平均2乗誤差(MSE)は16.8%、平均絶対誤差(MAE)は11.8%となっている。
- 参考スコア(独自算出の注目度): 1.9780020273082008
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study presents a novel time series prediction model, FPN-fusion, designed with linear computational complexity, demonstrating superior predictive performance compared to DLiner without increasing parameter count or computational demands. Our model introduces two key innovations: first, a Feature Pyramid Network (FPN) is employed to effectively capture time series data characteristics, bypassing the traditional decomposition into trend and seasonal components. Second, a multi-level fusion structure is developed to integrate deep and shallow features seamlessly. Empirically, FPN-fusion outperforms DLiner in 31 out of 32 test cases on eight open-source datasets, with an average reduction of 16.8% in mean squared error (MSE) and 11.8% in mean absolute error (MAE). Additionally, compared to the transformer-based PatchTST, FPN-fusion achieves 10 best MSE and 15 best MAE results, using only 8% of PatchTST's total computational load in the 32 test projects.
- Abstract(参考訳): 本研究では,線形計算複雑性を考慮した新しい時系列予測モデルFPN-fusionを提案し,パラメータ数や計算要求を増大させることなくDLinerよりも優れた予測性能を示す。
まず、時系列データの特徴を効果的に把握するためにFPN(Feature Pyramid Network)が採用され、従来の分解からトレンドや季節的なコンポーネントへ変換される。
第二に、深部と浅部をシームレスに統合する多層核融合構造が開発されている。
FPN融合は、8つのオープンソースデータセットで32ケース中31ケースでDLinerを上回り、平均2乗誤差(MSE)は16.8%、平均絶対誤差(MAE)は11.8%となっている。
さらに、変換器ベースのPatchTSTと比較して、FPN融合は、32のテストプロジェクトにおけるPatchTSTの総計算負荷の8%しか使用せず、10のベストMSEと15のベストMAE結果を達成する。
関連論文リスト
- Drift-Resilient TabPFN: In-Context Learning Temporal Distribution Shifts on Tabular Data [39.40116554523575]
In-Context Learning with a Prior-Data Fitted Network に基づく新しいアプローチである Drift-Resilient TabPFN を提案する。
先行した合成データセットのベイズ推定を近似することを学ぶ。
精度は0.688から0.744に向上し、OC AUCは0.786から0.832に向上し、キャリブレーションも強化された。
論文 参考訳(メタデータ) (2024-11-15T23:49:23Z) - "Give Me BF16 or Give Me Death"? Accuracy-Performance Trade-Offs in LLM Quantization [67.3213104337679]
我々は,学術ベンチマークや実世界のタスクにまたがる一般的な量子化形式を評価する。
W4A16は同期デプロイメントと中間層アーキテクチャの非同期デプロイメントに最適なコスト効率を提供する。
論文 参考訳(メタデータ) (2024-11-04T18:21:59Z) - PredFormer: Transformers Are Effective Spatial-Temporal Predictive Learners [65.93130697098658]
本稿では、予測学習のための純粋なトランスフォーマーベースのフレームワークであるPredFormerを提案する。
PredFormerは、リカレントフリーでトランスフォーマーベースの設計で、シンプルかつ効率的である。
合成および実世界のデータセットに関する実験は、PredFormerが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-07T03:52:06Z) - Test-Time Model Adaptation with Only Forward Passes [68.11784295706995]
テストタイム適応は、トレーニング済みのモデルを、潜在的に分布シフトのある未確認テストサンプルに適応させるのに有効であることが証明されている。
テスト時間フォワード最適化適応法(FOA)を提案する。
FOAは量子化された8ビットのViTで動作し、32ビットのViTで勾配ベースのTENTより優れ、ImageNet-Cで最大24倍のメモリ削減を実現する。
論文 参考訳(メタデータ) (2024-04-02T05:34:33Z) - UnetTSF: A Better Performance Linear Complexity Time Series Prediction
Model [0.0]
本稿では,線形複雑度を持つU-Net時系列予測モデル(UnetTSF)を提案する。
時系列データから特徴を抽出するためにFPN技術を使ったのは、私たちが初めてです。
UnetTSFは複雑なトランスフォーマーベースPatchTSTと比較して、mseの9つの最適結果と32のテストプロジェクトにおけるmaeの15の最適結果を得た。
論文 参考訳(メタデータ) (2024-01-05T03:12:20Z) - Transformer Multivariate Forecasting: Less is More? [42.558736426375056]
本稿では,実行効率を最適化しながら予測精度を高めるために冗長な情報を削減することに焦点を当てる。
このフレームワークは、5つの最先端(SOTA)モデルと4つの多様な実世界のデータセットによって評価される。
PCA+Crossformer(PCA+Crossformer)は平均平方誤差(MSE)を33.3%減らし、平均で49.2%減らす。
論文 参考訳(メタデータ) (2023-12-30T13:44:23Z) - Reduced Precision Floating-Point Optimization for Deep Neural Network
On-Device Learning on MicroControllers [15.37318446043671]
本稿では,MCUクラスデバイス上でのオンデバイス学習(ODL)プリミティブに対して,新しい精度最適化手法を提案する。
我々のアプローチは、シングルコアMCUのための既存のODLソフトウェアフレームワークよりも2桁以上高速である。
論文 参考訳(メタデータ) (2023-05-30T16:14:16Z) - A Meta-Learning Approach to Predicting Performance and Data Requirements [163.4412093478316]
本稿では,モデルが目標性能に達するために必要なサンプル数を推定する手法を提案する。
モデル性能を推定するデファクト原理であるパワー法則が,小さなデータセットを使用する場合の誤差が大きいことが判明した。
本稿では,2つのデータを異なる方法で処理するPPL法について紹介する。
論文 参考訳(メタデータ) (2023-03-02T21:48:22Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Scaling & Shifting Your Features: A New Baseline for Efficient Model
Tuning [126.84770886628833]
既存の微調整法は、事前訓練されたモデルの全てのパラメータ(フル微調整)をチューニングするか、最後の線形層(線形プローブ)のみをチューニングする。
そこで本研究では,SSFと呼ばれるパラメータ効率の高いファインタニング手法を提案する。
論文 参考訳(メタデータ) (2022-10-17T08:14:49Z) - Supplementation of deep neural networks with simplified physics-based
features to increase model prediction accuracy [0.0]
STEMアプリケーションの予測モデルを改善するために、補足的な物理ベースの機能がディープニューラルネットワーク(DNN)に導入された。
これらの追加機能は、さまざまな単一層と複数の層に注入され、4つの異なるデータセットサイズでトレーニングされる。
物理強化されたデータが複数の層に注入されると、エラーの33.2%から19.6%、34.9%から19.9%、35.8%から22.4%、および43.0%から28.4%がそれぞれ261、117、60、30のデータセットサイズで達成される。
論文 参考訳(メタデータ) (2022-04-14T05:44:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。