論文の概要: Enhancing Black-Scholes Delta Hedging via Deep Learning
- arxiv url: http://arxiv.org/abs/2407.19367v1
- Date: Sun, 28 Jul 2024 02:29:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 18:32:13.562282
- Title: Enhancing Black-Scholes Delta Hedging via Deep Learning
- Title(参考訳): ディープラーニングによるブラックスクールデルタヘッジの強化
- Authors: Chunhui Qiao, Xiangwei Wan,
- Abstract要約: 本稿では,ニューラルネットワークを応用して,ヒージング関数とインプリッドブラックスコールズデルタの間の残差を学習する,オプションのための深いデルタヒージングフレームワークを提案する。
実験により, 平均2乗1ステップのヘッジ誤差を損失関数として用いた残差の学習は, しばしば100%以上のヒージング関数を直接学習するよりも, ヒージング性能を著しく向上させることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a deep delta hedging framework for options, utilizing neural networks to learn the residuals between the hedging function and the implied Black-Scholes delta. This approach leverages the smoother properties of these residuals, enhancing deep learning performance. Utilizing ten years of daily S&P 500 index option data, our empirical analysis demonstrates that learning the residuals, using the mean squared one-step hedging error as the loss function, significantly improves hedging performance over directly learning the hedging function, often by more than 100%. Adding input features when learning the residuals enhances hedging performance more for puts than calls, with market sentiment being less crucial. Furthermore, learning the residuals with three years of data matches the hedging performance of directly learning with ten years of data, proving that our method demands less data.
- Abstract(参考訳): 本稿では,ニューラルネットワークを応用して,ヒージング関数とインプリッドブラックスコールズデルタの間の残差を学習する,オプションのための深いデルタヒージングフレームワークを提案する。
このアプローチはこれらの残留物のスムーズな特性を活用し、ディープラーニング性能を向上させる。
10年間の日次S&P 500指数データを用いて,平均2乗1ステップのヘッジ誤差を損失関数として用いた残差の学習が,ヒージング関数を直接学習するよりも,ヒージング性能を100%以上向上させることを示した。
残差を学習する際に入力機能を追加することで、呼び出しよりもヘッジパフォーマンスが向上する。
さらに,3年間のデータによる残差の学習は,10年間のデータを直接学習する際の過度な性能と一致し,本手法が要求するデータ量が少なくなることを証明した。
関連論文リスト
- Improving Data-aware and Parameter-aware Robustness for Continual Learning [3.480626767752489]
本報告では, オフラヤの非効率な取扱いから, この不整合が生じることを解析する。
本稿では,ロバスト連続学習(RCL)手法を提案する。
提案手法は, 堅牢性を効果的に維持し, 新たなSOTA(State-of-the-art)結果を得る。
論文 参考訳(メタデータ) (2024-05-27T11:21:26Z) - PUMA: margin-based data pruning [51.12154122266251]
モデル分類境界からの距離(すなわちマージン)に基づいて、いくつかのトレーニングサンプルを除去するデータプルーニングに焦点を当てる。
我々は,DeepFoolを用いてマージンを算出する新しいデータプルーニング戦略PUMAを提案する。
PUMAは,現状の最先端手法であるロバスト性の上に利用でき,既存のデータプルーニング戦略と異なり,モデル性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2024-05-10T08:02:20Z) - Improving Diffusion Models's Data-Corruption Resistance using Scheduled Pseudo-Huber Loss [5.539965805440292]
本稿では,アウトレーヤに頑健でありながら,生成したデータの高品質な保存が可能な拡散損失関数を提案する。
時間依存パラメータによる擬似ハッカ損失は、画像領域と音声領域の両方で劣化したデータセットに対してより良い性能を示すことを示す。
論文 参考訳(メタデータ) (2024-03-25T13:02:43Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - EsaCL: Efficient Continual Learning of Sparse Models [10.227171407348326]
連続的な学習設定の主な課題は、以前に学習したタスクを実行する方法を忘れずに、タスクのシーケンスを効率的に学習することである。
本研究では,モデルの予測力に悪影響を及ぼすことなく,冗長なパラメータを自動生成する,スパースモデル(EsaCL)の効率的な連続学習法を提案する。
論文 参考訳(メタデータ) (2024-01-11T04:59:44Z) - Temperature Schedules for Self-Supervised Contrastive Methods on
Long-Tail Data [87.77128754860983]
本稿では,ロングテールデータ上での自己教師付き学習(SSL)の行動分析を行う。
大きな$tau$はグループ的な差別を強調するのに対し、小さな$tau$はより高いインスタンスの差別をもたらす。
動的$tau$を用いて、簡単なコサインスケジュールが学習表現に大きな改善をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-23T20:37:25Z) - Alternate Loss Functions for Classification and Robust Regression Can Improve the Accuracy of Artificial Neural Networks [6.452225158891343]
本稿では,ニューラルネットワークのトレーニング速度と最終的な精度が,ニューラルネットワークのトレーニングに使用する損失関数に大きく依存することを示す。
様々なベンチマークタスクの性能を著しく向上させる2つの新しい分類損失関数を提案する。
論文 参考訳(メタデータ) (2023-03-17T12:52:06Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Data-driven Hedging of Stock Index Options via Deep Learning [6.952039070065292]
我々は、オプションデータから直接S&P500インデックスオプションのヘッジ比を学習するために、ディープラーニングモデルを開発する。
特徴の異なる組み合わせを比較し、成熟までの時間を持つフィードフォワードニューラルネットワークモデル、Black-Scholes deltaおよび感情変数が、アウトオブサンプルテストにおいて最善であることを示す。
論文 参考訳(メタデータ) (2021-11-05T12:53:47Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Deep Stock Predictions [58.720142291102135]
本稿では,Long Short Term Memory (LSTM) ニューラルネットワークを用いてポートフォリオ最適化を行うトレーディング戦略の設計について考察する。
次に、LSTMのトレーニングに使用する損失関数をカスタマイズし、利益を上げる。
カスタマイズされた損失関数を持つLSTMモデルは、ARIMAのような回帰ベースライン上でのトレーニングボットの性能を向上させる。
論文 参考訳(メタデータ) (2020-06-08T23:37:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。