論文の概要: Applying Deep Learning to Calibrate Stochastic Volatility Models
- arxiv url: http://arxiv.org/abs/2309.07843v2
- Date: Mon, 25 Sep 2023 09:34:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 00:41:42.828809
- Title: Applying Deep Learning to Calibrate Stochastic Volatility Models
- Title(参考訳): 確率的ボラティリティモデルの校正へのディープラーニングの適用
- Authors: Abir Sridi and Paul Bilokon
- Abstract要約: 我々は、価格バニラヨーロッパオプションに対する微分機械学習(DML)アプローチを開発した。
トレーニングされたニューラルネットワークは、Hestonキャリブレーションの時間を劇的に短縮する。
オーバーフィッティングを減らし、一般化誤差を改善することで、それらの性能を比較する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic volatility models, where the volatility is a stochastic process,
can capture most of the essential stylized facts of implied volatility surfaces
and give more realistic dynamics of the volatility smile/skew. However, they
come with the significant issue that they take too long to calibrate.
Alternative calibration methods based on Deep Learning (DL) techniques have
been recently used to build fast and accurate solutions to the calibration
problem. Huge and Savine developed a Differential Machine Learning (DML)
approach, where Machine Learning models are trained on samples of not only
features and labels but also differentials of labels to features. The present
work aims to apply the DML technique to price vanilla European options (i.e.
the calibration instruments), more specifically, puts when the underlying asset
follows a Heston model and then calibrate the model on the trained network. DML
allows for fast training and accurate pricing. The trained neural network
dramatically reduces Heston calibration's computation time.
In this work, we also introduce different regularisation techniques, and we
apply them notably in the case of the DML. We compare their performance in
reducing overfitting and improving the generalisation error. The DML
performance is also compared to the classical DL (without differentiation) one
in the case of Feed-Forward Neural Networks. We show that the DML outperforms
the DL.
The complete code for our experiments is provided in the GitHub repository:
https://github.com/asridi/DML-Calibration-Heston-Model
- Abstract(参考訳): ボラティリティが確率的過程である確率的ボラティリティモデルは、インプリートされたボラティリティ表面の基本的なスタイル化された事実の多くを捉え、ボラティリティの笑顔/スキューのより現実的なダイナミクスを与えることができる。
しかし、彼らは調整に時間がかかりすぎる重大な問題に直面している。
深層学習(dl)技術に基づく代替校正手法は,近年,キャリブレーション問題の高速かつ正確な解法構築に利用されている。
Huge氏とSavin氏は、DML(differial Machine Learning)アプローチを開発した。マシンラーニングモデルは、機能やラベルだけでなく、ラベルから機能への差分もトレーニングする。
本研究の目的は、バニラヨーロッパオプション(キャリブレーション機器)の価格設定にDML技術を適用することであり、より具体的には、基礎となる資産がヘストンモデルに従い、訓練されたネットワーク上でモデルをキャリブレーションすることである。
DMLは高速なトレーニングと正確な価格設定を可能にする。
トレーニングされたニューラルネットワークは、Hestonキャリブレーションの計算時間を劇的に短縮する。
本研究では,異なる正規化手法を導入し,特にDMLの場合に適用する。
オーバーフィッティングを低減し,一般化誤差を改善することで,それらの性能を比較する。
DMLの性能は、フィードフォワードニューラルネットワークの場合の古典的なDLと(差別化せずに)比較される。
DMLはDLよりも優れています。
実験の完全なコードはgithubリポジトリで提供されている。 https://github.com/asridi/dml-calibration-heston-model。
関連論文リスト
- What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - CALICO: Confident Active Learning with Integrated Calibration [11.978551396144532]
トレーニングプロセス中にサンプル選択に使用される信頼度を自己校正するALフレームワークを提案する。
ラベル付きサンプルが少ないソフトマックス分類器と比較して,分類性能が向上した。
論文 参考訳(メタデータ) (2024-07-02T15:05:19Z) - Towards Foundation Models for Scientific Machine Learning:
Characterizing Scaling and Transfer Behavior [32.74388989649232]
我々は、科学機械学習(SciML)の応用において、事前学習をどのように利用できるかを研究する。
これらのモデルを微調整すると、モデルのサイズが大きくなるにつれてパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2023-06-01T00:32:59Z) - Winner-Take-All Column Row Sampling for Memory Efficient Adaptation of Language Model [89.8764435351222]
分散を低減した行列生成のために, WTA-CRS と呼ばれる新しい非バイアス推定系を提案する。
我々の研究は、チューニング変換器の文脈において、提案した推定器が既存のものよりも低い分散を示すという理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-05-24T15:52:08Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Rethinking Soft Label in Label Distribution Learning Perspective [0.27719338074999533]
初期の畳み込みニューラルネットワーク(CNN)におけるトレーニングの第一の目的は、モデルのより高度な一般化性能である。
CNNトレーニングにおいてラベル分布学習(LDL)を行うことで,モデルの校正が促進されることを示した。
我々はいくつかの可視化と分析を行い、LCLを用いたCNNトレーニングでいくつかの興味深い振る舞いを目撃した。
論文 参考訳(メタデータ) (2023-01-31T06:47:19Z) - A Close Look into the Calibration of Pre-trained Language Models [56.998539510508515]
事前訓練された言語モデル(PLM)は、予測の不確かさを確実に見積もることに失敗する可能性がある。
トレーニングにおけるPLMの校正性能の動的変化について検討する。
最近提案された2つの学習可能な手法を拡張して、モデルを直接収集し、合理的な信頼度を推定する。
論文 参考訳(メタデータ) (2022-10-31T21:31:07Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。