論文の概要: Multi-Transformer: A New Neural Network-Based Architecture for
Forecasting S&P Volatility
- arxiv url: http://arxiv.org/abs/2109.12621v1
- Date: Sun, 26 Sep 2021 14:47:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 10:14:20.208561
- Title: Multi-Transformer: A New Neural Network-Based Architecture for
Forecasting S&P Volatility
- Title(参考訳): Multi-Transformer: S&Pのボラティリティを予測するためのニューラルネットワークベースのアーキテクチャ
- Authors: Eduardo Ramos-P\'erez, Pablo J. Alonso-Gonz\'alez, Jos\'e Javier
N\'u\~nez-Vel\'azquez
- Abstract要約: 本稿では,機械学習と深層学習に基づくより正確なストックボラティリティモデルを提案する。
本稿では,Multi-Transformerと呼ばれるニューラルネットワークアーキテクチャを提案する。
この論文は、ボラティリティ予測モデルに使用されるために、従来のトランスフォーマー層にも適応している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Events such as the Financial Crisis of 2007-2008 or the COVID-19 pandemic
caused significant losses to banks and insurance entities. They also
demonstrated the importance of using accurate equity risk models and having a
risk management function able to implement effective hedging strategies. Stock
volatility forecasts play a key role in the estimation of equity risk and,
thus, in the management actions carried out by financial institutions.
Therefore, this paper has the aim of proposing more accurate stock volatility
models based on novel machine and deep learning techniques. This paper
introduces a neural network-based architecture, called Multi-Transformer.
Multi-Transformer is a variant of Transformer models, which have already been
successfully applied in the field of natural language processing. Indeed, this
paper also adapts traditional Transformer layers in order to be used in
volatility forecasting models. The empirical results obtained in this paper
suggest that the hybrid models based on Multi-Transformer and Transformer
layers are more accurate and, hence, they lead to more appropriate risk
measures than other autoregressive algorithms or hybrid models based on feed
forward layers or long short term memory cells.
- Abstract(参考訳): 2007-2008年の金融危機や新型コロナウイルスのパンデミックなどの出来事は、銀行や保険会社に大きな損失をもたらした。
彼らはまた、正確な株式リスクモデルを使用することの重要性を示し、効果的なヘッジ戦略を実装できるリスク管理機能を備えている。
株価のボラティリティ予測は、株式リスクの推定において重要な役割を果たすため、金融機関による経営行動において重要である。
そこで本研究では,新しい機械と深層学習技術に基づく,より正確なストックボラティリティモデルを提案する。
本稿では,マルチトランスと呼ばれるニューラルネットワークアーキテクチャを提案する。
Multi-TransformerはTransformerモデルの変種であり、すでに自然言語処理の分野で成功している。
実際、本論文はボラティリティ予測モデルに使用するために、従来のトランスフォーマー層にも適応する。
本稿では,マルチトランスフォーマ層とトランスフォーマ層に基づくハイブリッドモデルの方が精度が高く,フィードフォワード層や長期記憶セルに基づく他の自己回帰アルゴリズムやハイブリッドモデルよりもリスク対策が適切であることを示す。
関連論文リスト
- Leveraging Convolutional Neural Network-Transformer Synergy for Predictive Modeling in Risk-Based Applications [5.914777314371152]
本稿では,CNN(Convolutional Neural Network)とTransformerを組み合わせたディープラーニングモデルを提案する。
その結果、CNN+Transformerモデルは、ランダムフォレストやXGBoostといった従来の機械学習モデルよりも優れていることがわかった。
本研究は、信用デフォルト予測の新しいアイデアを提供し、金融分野におけるリスク評価と知的意思決定を強力に支援する。
論文 参考訳(メタデータ) (2024-12-24T07:07:14Z) - STORM: A Spatio-Temporal Factor Model Based on Dual Vector Quantized Variational Autoencoders for Financial Trading [55.02735046724146]
金融取引では、ファクターモデルが資産の価格設定や過大なリターンの獲得に広く利用されている。
双対ベクトル量子化変分オートエンコーダを用いた時空間ファクトラーモデルSTORMを提案する。
ストームは時間的および空間的な視点からストックの特徴を抽出し、これらの特徴を微細で意味的なレベルで融合し整列させ、その要素を多次元の埋め込みとして表現する。
論文 参考訳(メタデータ) (2024-12-12T17:15:49Z) - Advanced Risk Prediction and Stability Assessment of Banks Using Time Series Transformer Models [10.79035001851989]
本稿では,時系列トランスモデルに基づく予測フレームワークを提案する。
モデルとLSTM, GRU, CNN, TCN, RNN-Transformerモデルを比較した。
実験結果から,Time Series Transformerモデルは平均二乗誤差(MSE)と平均絶対誤差(MAE)評価指標の両方において,他のモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-12-04T08:15:27Z) - Efficient Adaptation of Pre-trained Vision Transformer via Householder Transformation [53.88562288388169]
一般的な戦略である。
事前訓練された視覚変換器(ViT)のPEFT(Efficient Fine-Tuning)は、下流タスクにモデルを適応させる。
適応行列を表現するために,Singular Value Decomposition (SVD) にインスパイアされた新しいPEFT手法を提案する。
SVDは行列を左ユニタリ行列、スケーリング値の対角行列、右ユニタリ行列の積に分解する。
論文 参考訳(メタデータ) (2024-10-30T12:08:30Z) - Enhancing Actuarial Non-Life Pricing Models via Transformers [0.0]
我々は、ニューラルネットワークとローカルGLMnetを組み合わせた基盤を構築し、これらのモデルを特徴トークン変換器を介して強化する。
提案手法は,特定の一般化線形モデルの利点を保ちながら,ベンチマークモデルよりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2023-11-10T12:06:23Z) - Differential Evolution Algorithm based Hyper-Parameters Selection of
Transformer Neural Network Model for Load Forecasting [0.0]
トランスフォーマーモデルは、そのアテンションメカニズムから派生した長距離依存を学習できるため、ロード予測を改善する可能性がある。
我々の研究は,平均二乗誤差 (MSE) や平均絶対パーセンテージ誤差 (MAPE) といった数値に基づく負荷予測において,異なるメタヒューリスティックアルゴリズムと統合されたトランスフォーマーベースニューラルネットワークモデルを比較した。
論文 参考訳(メタデータ) (2023-07-28T04:29:53Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - Full Stack Optimization of Transformer Inference: a Survey [58.55475772110702]
トランスフォーマーモデルは広範囲のアプリケーションにまたがって優れた精度を実現する。
最近のTransformerモデルの推測に必要な計算量と帯域幅は、かなり増加しています。
Transformerモデルをより効率的にすることに注力している。
論文 参考訳(メタデータ) (2023-02-27T18:18:13Z) - Forecasting High-Dimensional Covariance Matrices of Asset Returns with
Hybrid GARCH-LSTMs [0.0]
本稿では,GARCHプロセスとニューラルネットワークを混合したハイブリッドモデルによるアセットリターンの共分散行列の予測能力について検討する。
提案された新しいモデルは、均等に重み付けされたポートフォリオを上回るだけでなく、エコノメトリとかなり差があるため、非常に有望である。
論文 参考訳(メタデータ) (2021-08-25T23:41:43Z) - Decision Transformer: Reinforcement Learning via Sequence Modeling [102.86873656751489]
本稿では,シーケンスモデリング問題として強化学習(RL)を抽象化するフレームワークを提案する。
本稿では,RLを条件付きシーケンスモデルとして扱うアーキテクチャであるDecision Transformerを提案する。
その単純さにもかかわらず、Decision Transformerは、Atari、OpenAI Gym、Key-to-Doorタスク上での最先端のオフラインRLベースラインのパフォーマンスと一致または超過する。
論文 参考訳(メタデータ) (2021-06-02T17:53:39Z) - Bayesian Transformer Language Models for Speech Recognition [59.235405107295655]
トランスフォーマーで表現される最先端のニューラルネットワークモデル(LM)は非常に複雑である。
本稿では,トランスフォーマーLM推定のためのベイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-09T10:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。