論文の概要: Higher Order Transformers: Enhancing Stock Movement Prediction On Multimodal Time-Series Data
- arxiv url: http://arxiv.org/abs/2412.10540v1
- Date: Fri, 13 Dec 2024 20:26:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:54:47.778358
- Title: Higher Order Transformers: Enhancing Stock Movement Prediction On Multimodal Time-Series Data
- Title(参考訳): 高次変圧器:マルチモーダル時系列データに基づく株価変動予測の強化
- Authors: Soroush Omranpour, Guillaume Rabusseau, Reihaneh Rabbany,
- Abstract要約: 我々は,高次変圧器の導入により,金融市場の株価変動を予測するという課題に取り組む。
我々は、自己保持機構とトランスフォーマーアーキテクチャを高次に拡張し、時間と変数の複雑な市場ダイナミクスを効果的に捉える。
本稿では,歴史的価格と関連するつぶやきからのマルチモーダル信号を利用して,技術的および基本的分析を統合するエンコーダ・デコーダモデルを提案する。
- 参考スコア(独自算出の注目度): 10.327160288730125
- License:
- Abstract: In this paper, we tackle the challenge of predicting stock movements in financial markets by introducing Higher Order Transformers, a novel architecture designed for processing multivariate time-series data. We extend the self-attention mechanism and the transformer architecture to a higher order, effectively capturing complex market dynamics across time and variables. To manage computational complexity, we propose a low-rank approximation of the potentially large attention tensor using tensor decomposition and employ kernel attention, reducing complexity to linear with respect to the data size. Additionally, we present an encoder-decoder model that integrates technical and fundamental analysis, utilizing multimodal signals from historical prices and related tweets. Our experiments on the Stocknet dataset demonstrate the effectiveness of our method, highlighting its potential for enhancing stock movement prediction in financial markets.
- Abstract(参考訳): 本稿では,多変量時系列データを処理する新しいアーキテクチャであるHigher Order Transformersを導入することで,金融市場における株価変動の予測に挑戦する。
我々は、自己保持機構とトランスフォーマーアーキテクチャを高次に拡張し、時間と変数の複雑な市場ダイナミクスを効果的に捉える。
計算複雑性を管理するために,テンソル分解を用いた潜在的に大きな注意テンソルの低ランク近似を提案し,カーネルの注意を生かし,データサイズに関して複雑性を線形に減らした。
さらに、歴史的価格と関連するツイートからのマルチモーダル信号を利用して、技術的および基本的分析を統合するエンコーダ・デコーダモデルを提案する。
提案手法の有効性を実証し,金融市場におけるストックムーブメント予測の強化の可能性を明らかにする。
関連論文リスト
- MCI-GRU: Stock Prediction Model Based on Multi-Head Cross-Attention and Improved GRU [15.232546605091818]
本稿では,多頭部クロスアテンション機構と改良型GRUに基づくストック予測モデルMCI-GRUを提案する。
4つの主要株式市場での実験では、提案手法は複数の指標でSOTA技術を上回っている。
論文 参考訳(メタデータ) (2024-09-25T14:37:49Z) - PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - Efficient Diffusion Transformer with Step-wise Dynamic Attention Mediators [83.48423407316713]
本稿では,クエリとキーを別々に扱うために,追加の仲介者トークンを組み込んだ新しい拡散トランスフォーマーフレームワークを提案する。
本モデルでは, 正確な非曖昧な段階を呈し, 詳細に富んだ段階へと徐々に遷移する。
本手法は,最近のSiTと統合した場合に,最先端のFIDスコア2.01を達成する。
論文 参考訳(メタデータ) (2024-08-11T07:01:39Z) - MDGNN: Multi-Relational Dynamic Graph Neural Network for Comprehensive
and Dynamic Stock Investment Prediction [22.430266982219496]
マルチリレーショナルな動的グラフニューラルネットワーク(MDGNN)フレームワークを提案する。
提案するMDGNNフレームワークは,SOTA(state-of-the-art-the-art)ストック投資手法と比較して,公開データセットにおける最高のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-01-19T02:51:29Z) - Enhanced LFTSformer: A Novel Long-Term Financial Time Series Prediction Model Using Advanced Feature Engineering and the DS Encoder Informer Architecture [0.8532753451809455]
本研究では,拡張LFTSformerと呼ばれる長期金融時系列の予測モデルを提案する。
このモデルは、いくつかの重要なイノベーションを通じて、自分自身を区別する。
さまざまなベンチマークストックマーケットデータセットに関するシステマティックな実験は、強化LFTSformerが従来の機械学習モデルより優れていることを示している。
論文 参考訳(メタデータ) (2023-10-03T08:37:21Z) - Cross-modal Orthogonal High-rank Augmentation for RGB-Event
Transformer-trackers [58.802352477207094]
本研究では,2つのモード間の分布ギャップを埋めるために,事前学習された視覚変換器(ViT)の潜在可能性を探る。
本研究では,いくつかのトークンの特定のモダリティをランダムにマスキングし,異なるモダリティのトークン間の相互作用を積極的に行うマスクモデリング戦略を提案する。
実験により,我々のプラグアンドプレイトレーニング強化技術は,追跡精度と成功率の両方の観点から,最先端のワンストリームと2つのトラッカーストリームを大幅に向上させることができることが示された。
論文 参考訳(メタデータ) (2023-07-09T08:58:47Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Trading with the Momentum Transformer: An Intelligent and Interpretable
Architecture [2.580765958706854]
我々は、ベンチマークを上回るアテンションベースのアーキテクチャであるMomentum Transformerを紹介した。
注意パターンの顕著な構造を観察し,運動量回転点における重要なピークを観測した。
解釈可能な変数選択ネットワークを追加することで、PDは日々のリターンデータに基づいて、モデルがトレーディングから遠ざけるのにどう役立つかを観察する。
論文 参考訳(メタデータ) (2021-12-16T00:04:12Z) - Bilinear Input Normalization for Neural Networks in Financial
Forecasting [101.89872650510074]
本稿では,高頻度金融時系列を扱うディープニューラルネットワークのための新しいデータ駆動正規化手法を提案する。
提案手法は,財務時系列のバイモーダル特性を考慮したものである。
我々の実験は最先端のニューラルネットワークと高周波データを用いて行われ、他の正規化技術よりも大幅に改善された。
論文 参考訳(メタデータ) (2021-09-01T07:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。