論文の概要: Chinese Stock Prediction Based on a Multi-Modal Transformer Framework: Macro-Micro Information Fusion
- arxiv url: http://arxiv.org/abs/2501.16621v1
- Date: Tue, 28 Jan 2025 01:39:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:42:27.084660
- Title: Chinese Stock Prediction Based on a Multi-Modal Transformer Framework: Macro-Micro Information Fusion
- Title(参考訳): マルチモーダル変圧器フレームワークに基づく中国の株価予測:マクロマイクロ情報融合
- Authors: Lumen AI, Tengzhou No. 1 Middle School, Shihao Ji, Zihui Song, Fucheng Zhong, Jisen Jia, Zhaobo Wu, Zheyi Cao, Xu Tianhao,
- Abstract要約: フレームワークは,(1)技術指標,財務テキスト,マクロデータ,イベント知識グラフをそれぞれ処理する4チャンネル並列エンコーダの4つのコアモジュールから構成される。
本稿では,異なる周波数のデータを効果的に融合し,事象の影響を定量化するハイブリッド周波数変換器とEvent2Vecアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 3.6219999155937113
- License:
- Abstract: This paper proposes an innovative Multi-Modal Transformer framework (MMF-Trans) designed to significantly improve the prediction accuracy of the Chinese stock market by integrating multi-source heterogeneous information including macroeconomy, micro-market, financial text, and event knowledge. The framework consists of four core modules: (1) A four-channel parallel encoder that processes technical indicators, financial text, macro data, and event knowledge graph respectively for independent feature extraction of multi-modal data; (2) A dynamic gated cross-modal fusion mechanism that adaptively learns the importance of different modalities through differentiable weight allocation for effective information integration; (3) A time-aligned mixed-frequency processing layer that uses an innovative position encoding method to effectively fuse data of different time frequencies and solves the time alignment problem of heterogeneous data; (4) A graph attention-based event impact quantification module that captures the dynamic impact of events on the market through event knowledge graph and quantifies the event impact coefficient. We introduce a hybrid-frequency Transformer and Event2Vec algorithm to effectively fuse data of different frequencies and quantify the event impact. Experimental results show that in the prediction task of CSI 300 constituent stocks, the root mean square error (RMSE) of the MMF-Trans framework is reduced by 23.7% compared to the baseline model, the event response prediction accuracy is improved by 41.2%, and the Sharpe ratio is improved by 32.6%.
- Abstract(参考訳): 本稿では, マクロ経済, マイクロマーケット, 金融テキスト, イベント知識などの多元異種情報を統合することで, 中国株式市場の予測精度を大幅に向上させる, 革新的なマルチモーダルトランスフレームワーク(MMF-Trans)を提案する。
本フレームワークは,(1)技術指標,金融テキスト,マクロデータ,イベント知識グラフの各処理を行う4チャネル並列エンコーダ,(2)実効情報統合のための微分重み付けによる異なるモダリティの重要度を適応的に学習する動的ゲート型クロスモーダル融合機構,(3)異なる時間周波数のデータを効果的に融合し,異種データのタイムアライメント問題を解消する革新的な位置符号化手法を用いた時間整合型複合処理層,(4)イベントインシデントに基づくイベントインパクト定量化モジュール,の4つのコアモジュールから構成される。
本稿では,異なる周波数のデータを効果的に融合し,事象の影響を定量化するハイブリッド周波数変換器とEvent2Vecアルゴリズムを提案する。
CSI300構成銘柄の予測タスクでは,MMF-Transフレームワークの根平均二乗誤差(RMSE)がベースラインモデルに比べて23.7%減少し,イベント応答予測精度が41.2%向上し,シャープ比が32.6%向上した。
関連論文リスト
- Higher Order Transformers: Enhancing Stock Movement Prediction On Multimodal Time-Series Data [10.327160288730125]
我々は,高次変圧器の導入により,金融市場の株価変動を予測するという課題に取り組む。
我々は、自己保持機構とトランスフォーマーアーキテクチャを高次に拡張し、時間と変数の複雑な市場ダイナミクスを効果的に捉える。
本稿では,歴史的価格と関連するつぶやきからのマルチモーダル信号を利用して,技術的および基本的分析を統合するエンコーダ・デコーダモデルを提案する。
論文 参考訳(メタデータ) (2024-12-13T20:26:35Z) - Stock Movement Prediction with Multimodal Stable Fusion via Gated Cross-Attention Mechanism [11.6870352823637]
本研究は,MSGCA (Multimodal Stable Fusion with Gated Cross-Attention) という新しいアーキテクチャを導入する。
MSGCAフレームワークは、(1)インジケータシーケンス、動的文書、および関係グラフを処理し、それらの特徴表現を標準化する三次符号化モジュール、(2)プライマリおよび一貫性のある特徴が一対のゲート型クロスアテンションネットワークを介して3つのモダリティのマルチモーダル融合を導くクロスフュージョンモジュール、(3)時間的および次元的縮小により融合した特徴を洗練して正確に実行する予測モジュールからなる。
論文 参考訳(メタデータ) (2024-06-06T03:13:34Z) - Computation and Parameter Efficient Multi-Modal Fusion Transformer for
Cued Speech Recognition [48.84506301960988]
Cued Speech (CS) は、聴覚障害者が使用する純粋視覚符号化法である。
自動CS認識(ACSR)は、音声の視覚的手がかりをテキストに書き起こそうとする。
論文 参考訳(メタデータ) (2024-01-31T05:20:29Z) - Efficient Multiscale Multimodal Bottleneck Transformer for Audio-Video
Classification [6.341420717393898]
我々は,新しいマルチスケールオーディオトランス (MAT) とマルチスケールビデオトランス (MMT) を開発した。
提案されたMATは、3つの公開ベンチマークデータセットでAST[28]を22.2%、4.4%、4.7%で大幅に上回っている。
FLOPの数に基づいて約3%効率が良く、GPUメモリ使用量に基づいて9.8%効率が良い。
論文 参考訳(メタデータ) (2024-01-08T17:02:25Z) - Transformer Multivariate Forecasting: Less is More? [42.558736426375056]
本稿では,実行効率を最適化しながら予測精度を高めるために冗長な情報を削減することに焦点を当てる。
このフレームワークは、5つの最先端(SOTA)モデルと4つの多様な実世界のデータセットによって評価される。
PCA+Crossformer(PCA+Crossformer)は平均平方誤差(MSE)を33.3%減らし、平均で49.2%減らす。
論文 参考訳(メタデータ) (2023-12-30T13:44:23Z) - Multimodal deep representation learning for quantum cross-platform
verification [60.01590250213637]
初期の量子コンピューティングの領域において重要な取り組みであるクロスプラットフォーム検証は、同一のアルゴリズムを実行する2つの不完全な量子デバイスとの類似性を特徴づけようと試みている。
本稿では,この課題におけるデータの形式化が2つの異なるモダリティを具現化する,革新的なマルチモーダル学習手法を提案する。
我々はこれらのモダリティから知識を独立して抽出するマルチモーダルニューラルネットワークを考案し、続いて融合操作により包括的データ表現を生成する。
論文 参考訳(メタデータ) (2023-11-07T04:35:03Z) - Deformable Mixer Transformer with Gating for Multi-Task Learning of
Dense Prediction [126.34551436845133]
CNNとTransformerには独自の利点があり、MTL(Multi-task Learning)の高密度予測に広く使われている。
本稿では,変形可能なCNNと問合せベースのTransformerの長所を共用したMTLモデルを提案する。
論文 参考訳(メタデータ) (2023-08-10T17:37:49Z) - HFedMS: Heterogeneous Federated Learning with Memorable Data Semantics
in Industrial Metaverse [49.1501082763252]
本稿では,新しい産業メタバースに実用FLを取り入れたHFEDMSを提案する。
動的グルーピングとトレーニングモード変換によってデータの均一性を低下させる。
そして、圧縮された履歴データセマンティクスを融合することで、忘れられた知識を補う。
ストリームされた非I.d.FEMNISTデータセットに対して,368個のシミュレーションデバイスを用いて実験を行った。
論文 参考訳(メタデータ) (2022-11-07T04:33:24Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z) - Bi-Bimodal Modality Fusion for Correlation-Controlled Multimodal
Sentiment Analysis [96.46952672172021]
Bi-Bimodal Fusion Network (BBFN) は、2対のモダリティ表現で融合を行う新しいエンドツーエンドネットワークである。
モデルは、モダリティ間の既知の情報不均衡により、2つのバイモーダルペアを入力として取る。
論文 参考訳(メタデータ) (2021-07-28T23:33:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。