論文の概要: Deep Calibration of Interest Rates Model
- arxiv url: http://arxiv.org/abs/2110.15133v1
- Date: Thu, 28 Oct 2021 14:08:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 16:24:52.737409
- Title: Deep Calibration of Interest Rates Model
- Title(参考訳): 利子率モデルの深い校正
- Authors: Mohamed Ben Alaya and Ahmed Kebaier and Djibril Sarr
- Abstract要約: 本稿ではニューラルネットワークを用いてG2++モデルの5つのパラメータを校正する。
提案手法は非常に高速に動作し(2万キャリブレーションで0.3秒未満)、エラーが少なく、適合性も良好である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For any financial institution it is a necessity to be able to apprehend the
behavior of interest rates. Despite the use of Deep Learning that is growing
very fastly, due to many reasons (expertise, ease of use, ...) classic rates
models such as CIR, or the Gaussian family are still being used widely. We
propose to calibrate the five parameters of the G2++ model using Neural
Networks. To achieve that, we construct synthetic data sets of parameters drawn
uniformly from a reference set of parameters calibrated from the market. From
those parameters, we compute Zero-Coupon and Forward rates and their
covariances and correlations. Our first model is a Fully Connected Neural
network and uses only covariances and correlations. We show that covariances
are more suited to the problem than correlations. The second model is a
Convulutional Neural Network using only Zero-Coupon rates with no
transformation. The methods we propose perform very quickly (less than 0.3
seconds for 2 000 calibrations) and have low errors and good fitting.
- Abstract(参考訳): あらゆる金融機関にとって、金利の振舞いを把握できることが必要である。
ディープラーニングの利用は急速に増加しているが、CIRやガウス家といった古典的なレートモデルが広く使われている多くの理由(専門知識、使いやすさ、...)により、依然として広く使われている。
本稿ではニューラルネットワークを用いてG2++モデルの5つのパラメータを校正する。
そこで我々は,市場から校正されたパラメータの参照集合から一様に引き出されたパラメータの合成データセットを構築する。
これらのパラメータからゼロクーポンとフォワード率とその共分散と相関を計算する。
最初のモデルは完全連結ニューラルネットワークで、共分散と相関のみを使用する。
相関よりも共分散が問題に適していることを示す。
第2のモデルは、変換なしでゼロクーポンレートのみを使用する畳み込みニューラルネットワークである。
提案手法は非常に高速(2万キャリブレーションで0.3秒未満)で,エラーが少なく,適合性が良好である。
関連論文リスト
- From Reactive to Proactive Volatility Modeling with Hemisphere Neural Networks [0.0]
我々は,新しいニューラルネットワークアーキテクチャを用いて,マクロ経済密度予測のための最大推定値(MLE)を再活性化する。
ヘミスフィアニューラルネットワーク(HNN)は、可能時の主指標に基づく積極的なボラティリティ予測と、必要時の過去の予測誤差の大きさに基づく反応性ボラティリティ予測を提供する。
論文 参考訳(メタデータ) (2023-11-27T21:37:50Z) - Neural Clamping: Joint Input Perturbation and Temperature Scaling for Neural Network Calibration [62.4971588282174]
我々はニューラルクランプ法と呼ばれる新しい後処理キャリブレーション法を提案する。
実験の結果,Neural Clampingは最先端の処理後のキャリブレーション法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-23T14:18:39Z) - On the Dark Side of Calibration for Modern Neural Networks [65.83956184145477]
予測キャリブレーション誤差(ECE)を予測信頼度と改善度に分解する。
正規化に基づくキャリブレーションは、モデルの信頼性を損なうことのみに焦点を当てる。
ラベルの平滑化やミキサアップなど,多くのキャリブレーション手法により,DNNの精度を低下させることで,DNNの有用性を低下させることがわかった。
論文 参考訳(メタデータ) (2021-06-17T11:04:14Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Exploring the Uncertainty Properties of Neural Networks' Implicit Priors
in the Infinite-Width Limit [47.324627920761685]
我々は、無限大のNNのアンサンブルに先立って関数空間をガウス過程として特徴づける最近の理論的進歩を用いる。
これにより、関数空間上の暗黙の前のNNについて、よりよく理解できます。
また,従来のNNGPを用いた分類手法の校正について検討した。
論文 参考訳(メタデータ) (2020-10-14T18:41:54Z) - Post-hoc Calibration of Neural Networks by g-Layers [51.42640515410253]
近年、ニューラルネットワークの校正に関する研究が急増している。
負ログライクリーフ(NLL)の最小化は、グローバルな最適化が達成されれば、トレーニングセット上の校正ネットワークにつながることが知られている。
基本ネットワーク (f$) が NLL のグローバルな最適化に繋がらず,追加レイヤ (g$) を追加し,パラメータを$g$ 1 に最適化することで NLL を最小化することで,キャリブレーションネットワークが得られることを示す。
論文 参考訳(メタデータ) (2020-06-23T07:55:10Z) - On Calibration of Mixup Training for Deep Neural Networks [1.6242924916178283]
我々は、Mixupが必ずしも校正を改善していないという実証的な証拠を論じ、提示する。
我々の損失はベイズ決定理論にインスパイアされ、確率的モデリングの損失を設計するための新しいトレーニングフレームワークが導入された。
キャリブレーション性能を一貫した改善を施した最先端の精度を提供する。
論文 参考訳(メタデータ) (2020-03-22T16:54:31Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。