論文の概要: Multi-Transformer: A New Neural Network-Based Architecture for
Forecasting S&P Volatility
- arxiv url: http://arxiv.org/abs/2109.12621v1
- Date: Sun, 26 Sep 2021 14:47:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 10:14:20.208561
- Title: Multi-Transformer: A New Neural Network-Based Architecture for
Forecasting S&P Volatility
- Title(参考訳): Multi-Transformer: S&Pのボラティリティを予測するためのニューラルネットワークベースのアーキテクチャ
- Authors: Eduardo Ramos-P\'erez, Pablo J. Alonso-Gonz\'alez, Jos\'e Javier
N\'u\~nez-Vel\'azquez
- Abstract要約: 本稿では,機械学習と深層学習に基づくより正確なストックボラティリティモデルを提案する。
本稿では,Multi-Transformerと呼ばれるニューラルネットワークアーキテクチャを提案する。
この論文は、ボラティリティ予測モデルに使用されるために、従来のトランスフォーマー層にも適応している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Events such as the Financial Crisis of 2007-2008 or the COVID-19 pandemic
caused significant losses to banks and insurance entities. They also
demonstrated the importance of using accurate equity risk models and having a
risk management function able to implement effective hedging strategies. Stock
volatility forecasts play a key role in the estimation of equity risk and,
thus, in the management actions carried out by financial institutions.
Therefore, this paper has the aim of proposing more accurate stock volatility
models based on novel machine and deep learning techniques. This paper
introduces a neural network-based architecture, called Multi-Transformer.
Multi-Transformer is a variant of Transformer models, which have already been
successfully applied in the field of natural language processing. Indeed, this
paper also adapts traditional Transformer layers in order to be used in
volatility forecasting models. The empirical results obtained in this paper
suggest that the hybrid models based on Multi-Transformer and Transformer
layers are more accurate and, hence, they lead to more appropriate risk
measures than other autoregressive algorithms or hybrid models based on feed
forward layers or long short term memory cells.
- Abstract(参考訳): 2007-2008年の金融危機や新型コロナウイルスのパンデミックなどの出来事は、銀行や保険会社に大きな損失をもたらした。
彼らはまた、正確な株式リスクモデルを使用することの重要性を示し、効果的なヘッジ戦略を実装できるリスク管理機能を備えている。
株価のボラティリティ予測は、株式リスクの推定において重要な役割を果たすため、金融機関による経営行動において重要である。
そこで本研究では,新しい機械と深層学習技術に基づく,より正確なストックボラティリティモデルを提案する。
本稿では,マルチトランスと呼ばれるニューラルネットワークアーキテクチャを提案する。
Multi-TransformerはTransformerモデルの変種であり、すでに自然言語処理の分野で成功している。
実際、本論文はボラティリティ予測モデルに使用するために、従来のトランスフォーマー層にも適応する。
本稿では,マルチトランスフォーマ層とトランスフォーマ層に基づくハイブリッドモデルの方が精度が高く,フィードフォワード層や長期記憶セルに基づく他の自己回帰アルゴリズムやハイブリッドモデルよりもリスク対策が適切であることを示す。
関連論文リスト
- Enhancing Actuarial Non-Life Pricing Models via Transformers [0.0]
我々は、ニューラルネットワークとローカルGLMnetを組み合わせた基盤を構築し、これらのモデルを特徴トークン変換器を介して強化する。
提案手法は,特定の一般化線形モデルの利点を保ちながら,ベンチマークモデルよりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2023-11-10T12:06:23Z) - Differential Evolution Algorithm based Hyper-Parameters Selection of
Transformer Neural Network Model for Load Forecasting [0.0]
トランスフォーマーモデルは、そのアテンションメカニズムから派生した長距離依存を学習できるため、ロード予測を改善する可能性がある。
我々の研究は,平均二乗誤差 (MSE) や平均絶対パーセンテージ誤差 (MAPE) といった数値に基づく負荷予測において,異なるメタヒューリスティックアルゴリズムと統合されたトランスフォーマーベースニューラルネットワークモデルを比較した。
論文 参考訳(メタデータ) (2023-07-28T04:29:53Z) - Deep Policy Gradient Methods in Commodity Markets [0.0]
トレーダーは流動性を提供し、ボラティリティを下げることで市場の安定化に重要な役割を果たしている。
本論文は,商品取引における深層強化学習手法の有効性について考察する。
論文 参考訳(メタデータ) (2023-06-14T11:50:23Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - Learning to Grow Pretrained Models for Efficient Transformer Training [72.20676008625641]
そこでは、より小さなモデルのパラメータを線形にマッピングして、より大きなモデルを初期化する。
言語と視覚のトランスフォーマーをまたいだ実験では、学習した線形成長演算子(LiGO)が、スクラッチから最大50%の計算コストを節約できることが示されています。
論文 参考訳(メタデータ) (2023-03-02T05:21:18Z) - Full Stack Optimization of Transformer Inference: a Survey [58.55475772110702]
トランスフォーマーモデルは広範囲のアプリケーションにまたがって優れた精度を実現する。
最近のTransformerモデルの推測に必要な計算量と帯域幅は、かなり増加しています。
Transformerモデルをより効率的にすることに注力している。
論文 参考訳(メタデータ) (2023-02-27T18:18:13Z) - Relational Reasoning via Set Transformers: Provable Efficiency and
Applications to MARL [154.13105285663656]
置換不変エージェントフレームワークを用いたMARL(Multi-A gent R einforcement Learning)は,実世界のアプリケーションにおいて大きな実証的成功を収めた。
残念なことに、このMARL問題の理論的理解は、多くのエージェントの呪いと、既存の著作における関係推論の限定的な探索によって欠落している。
モデルフリーアルゴリズムとモデルベースアルゴリズムの最適度差は各エージェント数に独立して対数的であり、多くのエージェントの呪いを和らげる。
論文 参考訳(メタデータ) (2022-09-20T16:42:59Z) - Forecasting High-Dimensional Covariance Matrices of Asset Returns with
Hybrid GARCH-LSTMs [0.0]
本稿では,GARCHプロセスとニューラルネットワークを混合したハイブリッドモデルによるアセットリターンの共分散行列の予測能力について検討する。
提案された新しいモデルは、均等に重み付けされたポートフォリオを上回るだけでなく、エコノメトリとかなり差があるため、非常に有望である。
論文 参考訳(メタデータ) (2021-08-25T23:41:43Z) - Decision Transformer: Reinforcement Learning via Sequence Modeling [102.86873656751489]
本稿では,シーケンスモデリング問題として強化学習(RL)を抽象化するフレームワークを提案する。
本稿では,RLを条件付きシーケンスモデルとして扱うアーキテクチャであるDecision Transformerを提案する。
その単純さにもかかわらず、Decision Transformerは、Atari、OpenAI Gym、Key-to-Doorタスク上での最先端のオフラインRLベースラインのパフォーマンスと一致または超過する。
論文 参考訳(メタデータ) (2021-06-02T17:53:39Z) - A Probabilistic Forecast-Driven Strategy for a Risk-Aware Participation
in the Capacity Firming Market [30.828362290032935]
本稿では,グリッド接続型再生可能発電プラントとキャパシティホルディング市場における蓄電池装置のエネルギー管理について述べる。
近年開発された「正規化フロー」と呼ばれる深層学習モデルを用いて再生可能生成の定量的予測を生成する。
論文 参考訳(メタデータ) (2021-05-28T13:13:07Z) - Bayesian Transformer Language Models for Speech Recognition [59.235405107295655]
トランスフォーマーで表現される最先端のニューラルネットワークモデル(LM)は非常に複雑である。
本稿では,トランスフォーマーLM推定のためのベイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-09T10:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。