論文の概要: Applying Deep Learning to Calibrate Stochastic Volatility Models
- arxiv url: http://arxiv.org/abs/2309.07843v1
- Date: Thu, 14 Sep 2023 16:38:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 12:13:39.398366
- Title: Applying Deep Learning to Calibrate Stochastic Volatility Models
- Title(参考訳): 確率的ボラティリティモデルの校正へのディープラーニングの適用
- Authors: Abir Sridi and Paul Bilokon
- Abstract要約: 我々は、価格バニラヨーロッパオプションに対する差分ディープラーニング(DDL)アプローチを開発した。
トレーニングされたニューラルネットワークは、Hestonキャリブレーションの時間を劇的に短縮する。
オーバーフィッティングを減らし、一般化誤差を改善することで、それらの性能を比較する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic volatility models, where the volatility is a stochastic process,
can capture most of the essential stylized facts of implied volatility surfaces
and give more realistic dynamics of the volatility smile or skew. However, they
come with the significant issue that they take too long to calibrate.
Alternative calibration methods based on Deep Learning (DL) techniques have
been recently used to build fast and accurate solutions to the calibration
problem. Huge and Savine developed a Differential Deep Learning (DDL) approach,
where Machine Learning models are trained on samples of not only features and
labels but also differentials of labels to features. The present work aims to
apply the DDL technique to price vanilla European options (i.e. the calibration
instruments), more specifically, puts when the underlying asset follows a
Heston model and then calibrate the model on the trained network. DDL allows
for fast training and accurate pricing. The trained neural network dramatically
reduces Heston calibration's computation time.
In this work, we also introduce different regularisation techniques, and we
apply them notably in the case of the DDL. We compare their performance in
reducing overfitting and improving the generalisation error. The DDL
performance is also compared to the classical DL (without differentiation) one
in the case of Feed-Forward Neural Networks. We show that the DDL outperforms
the DL.
- Abstract(参考訳): 確率的ボラティリティモデル(英語版)は、ボラティリティは確率的過程であり、インプリートされたボラティリティ表面の基本的なスタイル化された事実のほとんどを捉え、ボラティリティの笑顔やスキューのより現実的なダイナミクスを与える。
しかし、彼らは調整に時間がかかりすぎる重大な問題に直面している。
深層学習(dl)技術に基づく代替校正手法は,近年,キャリブレーション問題の高速かつ正確な解法構築に利用されている。
Huge氏とSavin氏は、DDL(differial Deep Learning)アプローチを開発した。マシンラーニングモデルは、機能やラベルだけでなく、ラベルから機能への差分もトレーニングする。
本研究の目的は、バニラヨーロッパオプション(キャリブレーション機器)の価格設定にDDL技術を適用し、より具体的には、基礎となる資産がヘストンモデルに従い、訓練されたネットワーク上でモデルをキャリブレーションすることである。
DDLは高速なトレーニングと正確な価格設定を可能にする。
トレーニングされたニューラルネットワークは、Hestonキャリブレーションの計算時間を劇的に短縮する。
本研究では, 異なる正規化手法も導入し, DDLの場合, 特に適用例を挙げる。
オーバーフィッティングを低減し,一般化誤差を改善することで,それらの性能を比較する。
DDLの性能は、フィードフォワードニューラルネットワークの場合の古典的なDLと(差別化せずに)比較される。
DDLがDLより優れていることを示す。
関連論文リスト
- What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - CALICO: Confident Active Learning with Integrated Calibration [11.978551396144532]
トレーニングプロセス中にサンプル選択に使用される信頼度を自己校正するALフレームワークを提案する。
ラベル付きサンプルが少ないソフトマックス分類器と比較して,分類性能が向上した。
論文 参考訳(メタデータ) (2024-07-02T15:05:19Z) - Towards Foundation Models for Scientific Machine Learning:
Characterizing Scaling and Transfer Behavior [32.74388989649232]
我々は、科学機械学習(SciML)の応用において、事前学習をどのように利用できるかを研究する。
これらのモデルを微調整すると、モデルのサイズが大きくなるにつれてパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2023-06-01T00:32:59Z) - Winner-Take-All Column Row Sampling for Memory Efficient Adaptation of Language Model [89.8764435351222]
分散を低減した行列生成のために, WTA-CRS と呼ばれる新しい非バイアス推定系を提案する。
我々の研究は、チューニング変換器の文脈において、提案した推定器が既存のものよりも低い分散を示すという理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-05-24T15:52:08Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Rethinking Soft Label in Label Distribution Learning Perspective [0.27719338074999533]
初期の畳み込みニューラルネットワーク(CNN)におけるトレーニングの第一の目的は、モデルのより高度な一般化性能である。
CNNトレーニングにおいてラベル分布学習(LDL)を行うことで,モデルの校正が促進されることを示した。
我々はいくつかの可視化と分析を行い、LCLを用いたCNNトレーニングでいくつかの興味深い振る舞いを目撃した。
論文 参考訳(メタデータ) (2023-01-31T06:47:19Z) - A Close Look into the Calibration of Pre-trained Language Models [56.998539510508515]
事前訓練された言語モデル(PLM)は、予測の不確かさを確実に見積もることに失敗する可能性がある。
トレーニングにおけるPLMの校正性能の動的変化について検討する。
最近提案された2つの学習可能な手法を拡張して、モデルを直接収集し、合理的な信頼度を推定する。
論文 参考訳(メタデータ) (2022-10-31T21:31:07Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。