論文の概要: Enhanced LFTSformer: A Novel Long-Term Financial Time Series Prediction Model Using Advanced Feature Engineering and the DS Encoder Informer Architecture
- arxiv url: http://arxiv.org/abs/2310.01884v2
- Date: Thu, 18 Apr 2024 09:25:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 20:49:22.930679
- Title: Enhanced LFTSformer: A Novel Long-Term Financial Time Series Prediction Model Using Advanced Feature Engineering and the DS Encoder Informer Architecture
- Title(参考訳): 拡張LFTSformer:高度な特徴工学とDSエンコーダインフォーマアーキテクチャを用いた長期金融時系列予測モデル
- Authors: Jianan Zhang, Hongyi Duan,
- Abstract要約: 本研究では,拡張LFTSformerと呼ばれる長期金融時系列の予測モデルを提案する。
このモデルは、いくつかの重要なイノベーションを通じて、自分自身を区別する。
さまざまなベンチマークストックマーケットデータセットに関するシステマティックな実験は、強化LFTSformerが従来の機械学習モデルより優れていることを示している。
- 参考スコア(独自算出の注目度): 0.8532753451809455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents a groundbreaking model for forecasting long-term financial time series, termed the Enhanced LFTSformer. The model distinguishes itself through several significant innovations: (1) VMD-MIC+FE Feature Engineering: The incorporation of sophisticated feature engineering techniques, specifically through the integration of Variational Mode Decomposition (VMD), Maximal Information Coefficient (MIC), and feature engineering (FE) methods, enables comprehensive perception and extraction of deep-level features from complex and variable financial datasets. (2) DS Encoder Informer: The architecture of the original Informer has been modified by adopting a Stacked Informer structure in the encoder, and an innovative introduction of a multi-head decentralized sparse attention mechanism, referred to as the Distributed Informer. This modification has led to a reduction in the number of attention blocks, thereby enhancing both the training accuracy and speed. (3) GC Enhanced Adam \& Dynamic Loss Function: The deployment of a Gradient Clipping-enhanced Adam optimization algorithm and a dynamic loss function represents a pioneering approach within the domain of financial time series prediction. This novel methodology optimizes model performance and adapts more dynamically to evolving data patterns. Systematic experimentation on a range of benchmark stock market datasets demonstrates that the Enhanced LFTSformer outperforms traditional machine learning models and other Informer-based architectures in terms of prediction accuracy, adaptability, and generality. Furthermore, the paper identifies potential avenues for future enhancements, with a particular focus on the identification and quantification of pivotal impacting events and news. This is aimed at further refining the predictive efficacy of the model.
- Abstract(参考訳): 本研究では,拡張LFTSformerと呼ばれる長期金融時系列の予測モデルを提案する。
1)VMD-MIC+FE機能エンジニアリング: 高度な機能エンジニアリング技術、特に変分モード分解(VMD)、最大情報係数(MIC)、機能エンジニアリング(FE)メソッドの統合により、複雑で可変な財務データセットからの深い機能の包括的認識と抽出を可能にする。
2) DSエンコーダインコーダ: オリジナルのインコーダのアーキテクチャは,エンコーダにスタック型インコーダ構造を採用し,分散インコーダと呼ばれるマルチヘッド分散スパースアテンション機構の革新的導入によって変更されている。
この変更により、注意ブロックの数が減少し、トレーニングの精度と速度が向上した。
(3)GC強化Adam \&Dynamic Loss Function: グラディエント・クリッピング強化Adam最適化アルゴリズムと動的損失関数のデプロイは、金融時系列予測の分野における先駆的なアプローチである。
この新しい手法は、モデルの性能を最適化し、進化するデータパターンによりダイナミックに適応する。
さまざまなベンチマークストックマーケットデータセットに関するシステマティックな実験は、強化LFTSformerが予測精度、適応性、一般性の観点から、従来の機械学習モデルや他のInformerベースのアーキテクチャよりも優れていることを示している。
さらに,今後の発展への道筋を明らかにするとともに,重要な出来事やニュースの特定と定量化に焦点をあてる。
これは、モデルの予測効率をさらに改善することを目的としている。
関連論文リスト
- Towards Neural Scaling Laws for Time Series Foundation Models [63.5211738245487]
我々は、エンコーダオンリーとデコーダオンリーのトランスフォーマーの2つの一般的なTSFMアーキテクチャについて検討し、IDおよびOODデータのスケーリング挙動について検討する。
実験の結果,TSFMのログライクな損失はOODとID設定の両方で同様のスケーリング挙動を示すことがわかった。
モデル機能を強化した大規模TSFMの設計とスケーリングのための実用的なガイドラインを提供する。
論文 参考訳(メタデータ) (2024-10-16T08:23:39Z) - Joint Hypergraph Rewiring and Memory-Augmented Forecasting Techniques in Digital Twin Technology [2.368662284133926]
Digital Twin技術は、物理的オブジェクト、プロセス、システムの仮想レプリカを作成し、それらの特性、データ、振る舞いを複製する。
Digital Twin技術は、大規模複雑なセンサーネットワークにおけるグラフ予測技術を活用し、多様なシナリオの正確な予測とシミュレーションを可能にしている。
本稿では,新しいパターンへの高速適応と過去の知識のメモリベース検索を取り入れ,ハイパーグラフ表現学習のバックボーンを強化するハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-08-22T14:08:45Z) - Research on Personalized Compression Algorithm for Pre-trained Models Based on Homomorphic Entropy Increase [2.6513322539118582]
我々は、現在のAI分野における2つの重要な技術の課題と進化を探求する:ビジョントランスフォーマーモデルと大規模言語モデル(LLM)。
Vision Transformerは、イメージを小さな断片に分割することで、グローバルな情報をキャプチャするが、その高い参照数とモバイル機器へのオーバヘッド制限の配置を計算する。
LLMは自然言語処理に革命をもたらしたが、デプロイメントの課題にも直面している。
論文 参考訳(メタデータ) (2024-08-16T11:56:49Z) - Gradient Reduction Convolutional Neural Network Policy for Financial Deep Reinforcement Learning [0.0]
本稿では、CNNモデルの予測性能と財務データの堅牢性を改善するための2つの重要な拡張を紹介する。
まず、入力段階で正規化層を統合し、一貫した機能スケーリングを保証する。
第二に、グラディエント・リダクション・アーキテクチャ(Gradient Reduction Architecture)を採用しています。
論文 参考訳(メタデータ) (2024-08-16T11:39:03Z) - MMA-DFER: MultiModal Adaptation of unimodal models for Dynamic Facial Expression Recognition in-the-wild [81.32127423981426]
実世界のアプリケーションでは,音声およびビデオデータに基づくマルチモーダル感情認識が重要である。
近年の手法は、強力なマルチモーダルエンコーダの事前学習に自己教師付き学習(SSL)の進歩を活用することに重点を置いている。
SSL-pre-trained disimodal encoders を用いて,この問題に対する異なる視点とマルチモーダル DFER の性能向上について検討する。
論文 参考訳(メタデータ) (2024-04-13T13:39:26Z) - Enhancing Dynamical System Modeling through Interpretable Machine
Learning Augmentations: A Case Study in Cathodic Electrophoretic Deposition [0.8796261172196743]
本稿では,物理システムのモデリング向上を目的とした包括的データ駆動フレームワークを提案する。
実証的応用として,電顕的電気泳動沈着(EPD)のモデル化を追求する。
論文 参考訳(メタデータ) (2024-01-16T14:58:21Z) - Embedded feature selection in LSTM networks with multi-objective
evolutionary ensemble learning for time series forecasting [49.1574468325115]
本稿では,Long Short-Term Memory Networkに埋め込まれた特徴選択手法を提案する。
本手法はLSTMの重みと偏りを分割的に最適化する。
イタリアとスペイン南東部の大気質時系列データの実験的評価により,従来のLSTMの能力一般化が著しく向上することが確認された。
論文 参考訳(メタデータ) (2023-12-29T08:42:10Z) - Data-Centric Long-Tailed Image Recognition [49.90107582624604]
ロングテールモデルは高品質なデータに対する強い需要を示している。
データ中心のアプローチは、モデルパフォーマンスを改善するために、データの量と品質の両方を強化することを目的としています。
現在、情報強化の有効性を説明するメカニズムに関する研究が不足している。
論文 参考訳(メタデータ) (2023-11-03T06:34:37Z) - Revisiting Structured Variational Autoencoders [11.998116457994994]
構造化変動オートエンコーダ(SVAE)は、潜伏変数の確率的グラフィカルモデル、観測データに潜伏変数をリンクするディープニューラルネットワーク、近似後部推論のための構造探索アルゴリズムを組み合わせる。
その概念的優雅さにもかかわらず、SVAEは実装が困難であることが証明され、より一般的なアプローチが実際に好まれている。
ここでは、現代の機械学習ツールを使用してSVAEを再検討し、精度と効率の両面で、より一般的な選択肢よりも優位性を示す。
論文 参考訳(メタデータ) (2023-05-25T23:51:18Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Scaling Pre-trained Language Models to Deeper via Parameter-efficient
Architecture [68.13678918660872]
行列積演算子(MPO)に基づくより有能なパラメータ共有アーキテクチャを設計する。
MPO分解はパラメータ行列の情報を再編成し、2つの部分に分解することができる。
私たちのアーキテクチャは、モデルのサイズを減らすために、すべてのレイヤで中央テンソルを共有しています。
論文 参考訳(メタデータ) (2023-03-27T02:34:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。