論文の概要: Deep Calibration of Interest Rates Model
- arxiv url: http://arxiv.org/abs/2110.15133v1
- Date: Thu, 28 Oct 2021 14:08:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 16:24:52.737409
- Title: Deep Calibration of Interest Rates Model
- Title(参考訳): 利子率モデルの深い校正
- Authors: Mohamed Ben Alaya and Ahmed Kebaier and Djibril Sarr
- Abstract要約: 本稿ではニューラルネットワークを用いてG2++モデルの5つのパラメータを校正する。
提案手法は非常に高速に動作し(2万キャリブレーションで0.3秒未満)、エラーが少なく、適合性も良好である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For any financial institution it is a necessity to be able to apprehend the
behavior of interest rates. Despite the use of Deep Learning that is growing
very fastly, due to many reasons (expertise, ease of use, ...) classic rates
models such as CIR, or the Gaussian family are still being used widely. We
propose to calibrate the five parameters of the G2++ model using Neural
Networks. To achieve that, we construct synthetic data sets of parameters drawn
uniformly from a reference set of parameters calibrated from the market. From
those parameters, we compute Zero-Coupon and Forward rates and their
covariances and correlations. Our first model is a Fully Connected Neural
network and uses only covariances and correlations. We show that covariances
are more suited to the problem than correlations. The second model is a
Convulutional Neural Network using only Zero-Coupon rates with no
transformation. The methods we propose perform very quickly (less than 0.3
seconds for 2 000 calibrations) and have low errors and good fitting.
- Abstract(参考訳): あらゆる金融機関にとって、金利の振舞いを把握できることが必要である。
ディープラーニングの利用は急速に増加しているが、CIRやガウス家といった古典的なレートモデルが広く使われている多くの理由(専門知識、使いやすさ、...)により、依然として広く使われている。
本稿ではニューラルネットワークを用いてG2++モデルの5つのパラメータを校正する。
そこで我々は,市場から校正されたパラメータの参照集合から一様に引き出されたパラメータの合成データセットを構築する。
これらのパラメータからゼロクーポンとフォワード率とその共分散と相関を計算する。
最初のモデルは完全連結ニューラルネットワークで、共分散と相関のみを使用する。
相関よりも共分散が問題に適していることを示す。
第2のモデルは、変換なしでゼロクーポンレートのみを使用する畳み込みニューラルネットワークである。
提案手法は非常に高速(2万キャリブレーションで0.3秒未満)で,エラーが少なく,適合性が良好である。
関連論文リスト
- Winner-Take-All Column Row Sampling for Memory Efficient Adaptation of
Language Model [92.55145016562867]
分散を低減した行列生成のために, WTA-CRS と呼ばれる新しい非バイアス推定系を提案する。
我々の研究は、チューニング変換器の文脈において、提案した推定器が既存のものよりも低い分散を示すという理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-05-24T15:52:08Z) - Integrating Random Effects in Deep Neural Networks [4.860671253873579]
深層ニューラルネットワークにおける相関データを扱うために混合モデルフレームワークを提案する。
相関構造に基づく効果をランダムな効果として扱うことにより、混合モデルは過度に適合したパラメータ推定を避けることができる。
LMMNNと呼ばれる我々のアプローチは、様々な相関シナリオにおいて、自然競合よりも性能を向上させることが実証されている。
論文 参考訳(メタデータ) (2022-06-07T14:02:24Z) - Characterizing and Understanding the Behavior of Quantized Models for
Reliable Deployment [32.01355605506855]
量子化対応トレーニングは、標準、逆数、ミックスアップトレーニングよりも安定したモデルを生成することができる。
診断は、しばしばトップ1とトップ2の出力確率に近づき、$Margin$は、相違点を区別する他の不確実性指標よりも優れた指標である。
我々は、量子化されたモデルをさらに研究するための新しいベンチマークとして、コードとモデルをオープンソース化した。
論文 参考訳(メタデータ) (2022-04-08T11:19:16Z) - Linear Speedup in Personalized Collaborative Learning [69.45124829480106]
フェデレート学習におけるパーソナライゼーションは、モデルのバイアスをトレーディングすることで、モデルの精度を向上させることができる。
ユーザの目的の最適化として、パーソナライズされた協調学習問題を定式化する。
分散の低減のためにバイアスを最適にトレードオフできる条件について検討する。
論文 参考訳(メタデータ) (2021-11-10T22:12:52Z) - Investigating the Relationship Between Dropout Regularization and Model
Complexity in Neural Networks [0.0]
ドロップアウト規則化は、ディープラーニングモデルのばらつきを低減するのに役立つ。
2,000のニューラルネットワークをトレーニングすることにより,ドロップアウト率とモデル複雑性の関係について検討する。
各密層に隠されたユニットの数から、最適なドロップアウト率を予測するニューラルネットワークを構築します。
論文 参考訳(メタデータ) (2021-08-14T23:49:33Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - On the Reproducibility of Neural Network Predictions [52.47827424679645]
そこで本研究では, チャーン問題について検討し, 原因因子を同定し, 緩和する2つの簡単な方法を提案する。
最初に、標準的な画像分類タスクであっても、チャーンが問題であることを示す。
我々は,予測信頼度を高めるために,エントロピー正規化器を提案する。
両手法の有効性を実証的に示し, 基礎モデルの精度を向上しながら, チャーン低減効果を示す。
論文 参考訳(メタデータ) (2021-02-05T18:51:01Z) - Inner Ensemble Networks: Average Ensemble as an Effective Regularizer [20.33062212014075]
内部アンサンブルネットワーク(IEN)は、モデル複雑性を増大させることなく、ニューラルネットワーク自体内の分散を減少させる。
IENは、トレーニングフェーズ中にアンサンブルパラメータを使用して、ネットワークのばらつきを低減する。
論文 参考訳(メタデータ) (2020-06-15T11:56:11Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。