論文の概要: Application of Tensor Neural Networks to Pricing Bermudan Swaptions
- arxiv url: http://arxiv.org/abs/2304.09750v1
- Date: Tue, 18 Apr 2023 07:41:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 13:54:45.173363
- Title: Application of Tensor Neural Networks to Pricing Bermudan Swaptions
- Title(参考訳): テンソルニューラルネットワークのバームダン価格交換への応用
- Authors: Raj G. Patel, Tomas Dominguez, Mohammad Dib, Samuel Palmer, Andrea
Cadarso, Fernando De Lope Contreras, Abdelkader Ratnani, Francisco Gomez
Casanova, Senaida Hern\'andez-Santana, \'Alvaro D\'iaz-Fern\'andez, Eva
Andr\'es, Jorge Luis-Hita, Escol\'astico S\'anchez-Mart\'inez, Samuel Mugel,
Roman Orus
- Abstract要約: チェエットモデルはヨーロッパやベルムダンのスワップのような金利デリバティブの価格設定に広く用いられている。
深層学習技術は、ヨーロッパ・ベルムダン・スワプティオンの値過程に関連する後方微分方程式の解法として用いられてきた。
Dense Neural NetworksはDense Neural Networksよりも高速にトレーニングでき、それよりも正確で堅牢な価格を提供する。
- 参考スコア(独自算出の注目度): 40.24757332810004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Cheyette model is a quasi-Gaussian volatility interest rate model widely
used to price interest rate derivatives such as European and Bermudan Swaptions
for which Monte Carlo simulation has become the industry standard. In low
dimensions, these approaches provide accurate and robust prices for European
Swaptions but, even in this computationally simple setting, they are known to
underestimate the value of Bermudan Swaptions when using the state variables as
regressors. This is mainly due to the use of a finite number of predetermined
basis functions in the regression. Moreover, in high-dimensional settings,
these approaches succumb to the Curse of Dimensionality. To address these
issues, Deep-learning techniques have been used to solve the backward
Stochastic Differential Equation associated with the value process for European
and Bermudan Swaptions; however, these methods are constrained by training time
and memory. To overcome these limitations, we propose leveraging Tensor Neural
Networks as they can provide significant parameter savings while attaining the
same accuracy as classical Dense Neural Networks. In this paper we rigorously
benchmark the performance of Tensor Neural Networks and Dense Neural Networks
for pricing European and Bermudan Swaptions, and we show that Tensor Neural
Networks can be trained faster than Dense Neural Networks and provide more
accurate and robust prices than their Dense counterparts.
- Abstract(参考訳): シャイエットモデル(英: cheyette model)は、モンテカルロシミュレーションが業界標準となった欧州やベルムダンなどの価格デリバティブに広く用いられている準ゲージボラティリティ金利モデルである。
低次元では、これらのアプローチはヨーロッパのスワップオンに対して正確で堅牢な価格を提供するが、この計算学的に単純な設定であっても、状態変数を回帰器として使用する場合のベルムダンスワップオンの価値を過小評価することが知られている。
これは主に、回帰における有限個の所定の基底関数の使用によるものである。
さらに、高次元設定では、これらのアプローチは次元の曲線に結びつく。
これらの問題に対処するために、深層学習技術は、ヨーロッパやベルムダンのスワプションの価値プロセスに関連する後方確率微分方程式の解法として用いられてきたが、これらの手法はトレーニング時間と記憶によって制約されている。
これらの制限を克服するために,従来のDense Neural Networksと同じ精度でパラメータの大幅な削減を実現するために,Tensor Neural Networksを活用することを提案する。
本稿では, テンソルニューラルネットワークとデンスニューラルネットワークの性能を欧州とベルムダンのスワップ価格で厳格にベンチマークし, テンソルニューラルネットワークはデンスニューラルネットワークよりも高速にトレーニングでき, より正確で堅牢な価格を提供できることを示す。
関連論文リスト
- Scale-Dropout: Estimating Uncertainty in Deep Neural Networks Using
Stochastic Scale [0.7025445595542577]
ニューラルネットワーク(NN)の不確実性推定は、特に安全クリティカルなアプリケーションにおいて、予測の信頼性と信頼性を向上させる上で不可欠である。
Dropoutを近似とするBayNNは、不確実性に対する体系的なアプローチを提供するが、本質的には、電力、メモリ、定量化の点で高いハードウェアオーバーヘッドに悩まされている。
提案するBayNNに対して,スピントロニクスメモリベースのCIMアーキテクチャを導入し,最先端技術と比較して100倍以上の省エネを実現した。
論文 参考訳(メタデータ) (2023-11-27T13:41:20Z) - Spike-and-slab shrinkage priors for structurally sparse Bayesian neural networks [0.16385815610837165]
スパースディープラーニングは、基礎となるターゲット関数のスパース表現を復元することで、課題に対処する。
構造化された空間によって圧縮されたディープニューラルアーキテクチャは、低レイテンシ推論、データスループットの向上、エネルギー消費の削減を提供する。
本研究では, (i) Spike-and-Slab Group Lasso (SS-GL) と (ii) Spike-and-Slab Group Horseshoe (SS-GHS) を併用した過剰ノードを誘発する構造的疎いベイズニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-17T17:14:18Z) - Simultaneous upper and lower bounds of American-style option prices with hedging via neural networks [1.3694410384330646]
本稿では,ニューラルネットワークを用いたアメリカンスタイルオプション価格問題の解法として,新しい2つの手法を提案する。
最初の方法は、一連のニューラルネットワークを使用して、オプション価格の下限と上限の両方を同時に計算する。
2つ目の方法は1つのグローバルネットワークで同じ目標を達成する。
論文 参考訳(メタデータ) (2023-02-24T03:57:31Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - Low-bit Quantization of Recurrent Neural Network Language Models Using
Alternating Direction Methods of Multipliers [67.688697838109]
本稿では、乗算器の交互方向法(ADMM)を用いて、スクラッチから量子化RNNLMを訓練する新しい手法を提案する。
2つのタスクの実験から、提案されたADMM量子化は、完全な精度ベースライン RNNLM で最大31倍のモデルサイズ圧縮係数を達成したことが示唆された。
論文 参考訳(メタデータ) (2021-11-29T09:30:06Z) - Bilinear Input Normalization for Neural Networks in Financial
Forecasting [101.89872650510074]
本稿では,高頻度金融時系列を扱うディープニューラルネットワークのための新しいデータ駆動正規化手法を提案する。
提案手法は,財務時系列のバイモーダル特性を考慮したものである。
我々の実験は最先端のニューラルネットワークと高周波データを用いて行われ、他の正規化技術よりも大幅に改善された。
論文 参考訳(メタデータ) (2021-09-01T07:52:03Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Sparse Uncertainty Representation in Deep Learning with Inducing Weights [22.912675044223302]
我々はMatheronの条件付きガウスサンプリングルールを拡張し、高速な重量サンプリングを可能にする。
提案手法は,完全連結ニューラルネットワークとResNetを用いた予測および不確実性推定タスクにおける最先端の競争性能を実現する。
論文 参考訳(メタデータ) (2021-05-30T18:17:47Z) - Neural Network Training Using $\ell_1$-Regularization and Bi-fidelity
Data [0.0]
高忠実度モデルからの小さなトレーニングデータセットのみが利用可能である場合、スペーサがニューラルネットワークのトレーニングに$ell_$-regularizationを促進させる効果について検討する。
本稿では,問題の低忠実度モデルから得られたデータを用いて訓練した同一ネットワークのパラメータから,$ell_$-regularizationの2つの変種について考察する。
これらのバイフィダリティ戦略は、大きな低フィダリティデータセットから学習したパラメータを使用して、小さな高フィダリティデータセットのためにネットワークを効率的にトレーニングするニューラルネットワークの転送学習の一般化である。
論文 参考訳(メタデータ) (2021-05-27T08:56:17Z) - Improve Generalization and Robustness of Neural Networks via Weight
Scale Shifting Invariant Regularizations [52.493315075385325]
重み劣化を含む正則化器の族は、均質な活性化関数を持つネットワークに対する本質的な重みのノルムをペナルティ化するのに有効でないことを示す。
そこで我々は,ニューラルネットワークの本質的な規範を効果的に制約する改良型正規化器を提案する。
論文 参考訳(メタデータ) (2020-08-07T02:55:28Z) - Neural Networks and Value at Risk [59.85784504799224]
リスクしきい値推定における資産価値のモンテカルロシミュレーションを行う。
株式市場と長期債を試験資産として利用し、ニューラルネットワークについて検討する。
はるかに少ないデータでフィードされたネットワークは、大幅にパフォーマンスが悪くなっています。
論文 参考訳(メタデータ) (2020-05-04T17:41:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。