論文の概要: SigFormer: Signature Transformers for Deep Hedging
- arxiv url: http://arxiv.org/abs/2310.13369v1
- Date: Fri, 20 Oct 2023 09:25:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 23:47:04.966170
- Title: SigFormer: Signature Transformers for Deep Hedging
- Title(参考訳): SigFormer:ディープヘッジ用の署名変換器
- Authors: Anh Tong and Thanh Nguyen-Tang and Dongeun Lee and Toan Tran and
Jaesik Choi
- Abstract要約: 我々は、経路シグネチャとトランスフォーマーのパワーを組み合わせてシーケンシャルデータを処理する、新しいディープラーニングモデルであるSigFormerを紹介する。
提案手法は,既存の合成データと比較し,より高速な学習と強靭性を示す。
実世界のバックテストを通じて,SP500指数の重み付けによるモデル性能の検証を行い,肯定的な結果を示した。
- 参考スコア(独自算出の注目度): 33.08100709308656
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep hedging is a promising direction in quantitative finance, incorporating
models and techniques from deep learning research. While giving excellent
hedging strategies, models inherently requires careful treatment in designing
architectures for neural networks. To mitigate such difficulties, we introduce
SigFormer, a novel deep learning model that combines the power of path
signatures and transformers to handle sequential data, particularly in cases
with irregularities. Path signatures effectively capture complex data patterns,
while transformers provide superior sequential attention. Our proposed model is
empirically compared to existing methods on synthetic data, showcasing faster
learning and enhanced robustness, especially in the presence of irregular
underlying price data. Additionally, we validate our model performance through
a real-world backtest on hedging the SP 500 index, demonstrating positive
outcomes.
- Abstract(参考訳): 深層ヘッジは定量的ファイナンスにおいて有望な方向であり、深層学習研究のモデルとテクニックを取り入れている。
優れたヘッジ戦略を提供する一方で、モデルは本質的にニューラルネットワークのアーキテクチャを設計する際に慎重に扱う必要がある。
このような問題を緩和するために、パスシグネチャとトランスフォーマーのパワーを組み合わせて、特に不規則な場合のシーケンシャルデータを処理する新しいディープラーニングモデルであるSigFormerを導入する。
パスシグネチャは複雑なデータパターンを効果的にキャプチャし、トランスフォーマはシーケンシャルに注意を向ける。
提案手法は, 既存の合成データ手法と比較し, 学習の高速化と頑健性の向上, 特に不規則な価格データの存在下でのロバスト性を示す。
さらに,SP500指数の重み付けによる実世界のバックテストによるモデル性能の検証を行い,肯定的な結果を示した。
関連論文リスト
- Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Sampling Foundational Transformer: A Theoretical Perspective [12.7600763629179]
本稿では,複数のデータモダリティを扱える基本サンプリング変換器(SFT)を提案する。
SFTは多くのベンチマークで競合する結果を得たが、他の非常に特殊なモデルに比べて推論が速い。
論文 参考訳(メタデータ) (2024-08-11T16:53:09Z) - Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - Towards a robust and reliable deep learning approach for detection of
compact binary mergers in gravitational wave data [0.0]
我々は、段階的に深層学習モデルを開発し、その堅牢性と信頼性の向上に取り組みます。
我々はGAN(Generative Adversarial Network)を含む新しいフレームワークでモデルを再訓練する。
絶対ロバスト性は事実上達成できないが、そのような訓練によって得られるいくつかの根本的な改善を実証する。
論文 参考訳(メタデータ) (2023-06-20T18:00:05Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Phantom Embeddings: Using Embedding Space for Model Regularization in
Deep Neural Networks [12.293294756969477]
機械学習モデルの強みは、データから複雑な関数近似を学ぶ能力に起因している。
複雑なモデルはトレーニングデータを記憶する傾向があり、結果としてテストデータの正規化性能が低下する。
情報豊富な潜伏埋め込みと高いクラス内相関を利用してモデルを正規化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-14T17:15:54Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Transfer Learning in Deep Learning Models for Building Load Forecasting:
Case of Limited Data [0.0]
本稿では,この問題を克服し,ディープラーニングモデルの性能を向上させるためのビルディング・ツー・ビルディング・トランスファー・ラーニング・フレームワークを提案する。
提案手法は,スクラッチからトレーニングを行う従来のディープラーニングと比較して,予測精度を56.8%向上させた。
論文 参考訳(メタデータ) (2023-01-25T16:05:47Z) - Visformer: The Vision-friendly Transformer [105.52122194322592]
我々は視覚に優しいトランスフォーマーから短縮したvisformerという新しいアーキテクチャを提案する。
同じ計算の複雑さにより、VisformerはTransformerベースのモデルとConvolutionベースのモデルの両方をImageNet分類精度で上回る。
論文 参考訳(メタデータ) (2021-04-26T13:13:03Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。