論文の概要: Simultaneous upper and lower bounds of American option prices with
hedging via neural networks
- arxiv url: http://arxiv.org/abs/2302.12439v1
- Date: Fri, 24 Feb 2023 03:57:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 14:42:28.693248
- Title: Simultaneous upper and lower bounds of American option prices with
hedging via neural networks
- Title(参考訳): ニューラルネットワークによるヘッジによるアメリカのオプション価格の同時上・下限
- Authors: Ivan Guo, Nicolas Langren\'e and Jiahao Wu
- Abstract要約: 本稿では,ニューラルネットワークを用いたアメリカンスタイルオプション価格問題の解法を2つ紹介する。
最初の方法は、一連のニューラルネットワークを使用して、オプション価格の下限と上限の両方を同時に計算する。
2つ目の方法は1つのグローバルネットワークで同じ目標を達成する。
- 参考スコア(独自算出の注目度): 1.0649021117546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce two methods to solve the American-style option
pricing problem and its dual form at the same time using neural networks.
Without applying nested Monte Carlo, the first method uses a series of neural
networks to simultaneously compute both the lower and upper bounds of the
option price, and the second one accomplishes the same goal with one global
network. The avoidance of extra simulations and the use of neural networks
significantly reduce the computational complexity and allow us to price
Bermudan options with frequent exercise opportunities in high dimensions, as
illustrated by the provided numerical experiments. As a by-product, these
methods also derive a hedging strategy for the option, which can also be used
as a control variate for variance reduction.
- Abstract(参考訳): 本稿では,ニューラルネットワークを用いてアメリカンスタイルのオプション価格問題と,その2つの形式を同時に解く方法を提案する。
ネストしたモンテカルロを適用することなく、第1の方法は一連のニューラルネットワークを使用してオプション価格の下限と上限の両方を同時に計算し、第2の方法は1つのグローバルネットワークで同じ目標を達成する。
得られた数値実験で示すように、余剰シミュレーションの回避とニューラルネットワークの使用は計算複雑性を大幅に低減し、高次元での頻繁な運動機会を持つベルムダンオプションの価格設定を可能にした。
副産物として、これらの方法はオプションのヘッジ戦略を導出し、分散低減のための制御変数としても使用できる。
関連論文リスト
- What to Do When Your Discrete Optimization Is the Size of a Neural
Network? [24.546550334179486]
ニューラルネットワークを用いた機械学習アプリケーションは、離散最適化問題を解くことを含む。
離散的な設定で使用される古典的なアプローチは、大きなニューラルネットワークに対してうまくスケールしない。
連続経路(CP)法は,前者およびモンテカルロ法(MC)法を純粋に表現し,後者を表現している。
論文 参考訳(メタデータ) (2024-02-15T21:57:43Z) - Provable Identifiability of Two-Layer ReLU Neural Networks via LASSO
Regularization [15.517787031620864]
LASSOの領域は、ファッショナブルで強力な非線形回帰モデルである2層ReLUニューラルネットワークに拡張される。
LASSO推定器はニューラルネットワークを安定的に再構築し,サンプル数が対数的にスケールする場合に$mathcalSstar$を識別可能であることを示す。
我々の理論は、2層ReLUニューラルネットワークのための拡張Restricted Isometry Property (RIP)ベースの分析フレームワークにある。
論文 参考訳(メタデータ) (2023-05-07T13:05:09Z) - Application of Tensor Neural Networks to Pricing Bermudan Swaptions [29.227404440644076]
チェエットモデルはヨーロッパやベルムダンのスワップのような金利デリバティブの価格設定に広く用いられている。
深層学習技術は、ヨーロッパ・ベルムダン・スワプティオンの値過程に関連する後方微分方程式の解法として用いられてきた。
Dense Neural NetworksはDense Neural Networksよりも高速にトレーニングでき、それよりも正確で堅牢な価格を提供する。
論文 参考訳(メタデータ) (2023-04-18T07:41:04Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Solving Maxwell's Equation in 2D with Neural Networks with Local
Converging Inputs [0.061386715480643554]
完全導体に関するマクスウェル方程式を解くために、局所収束入力を持つニューラルネットワークを適用した。
実験は空間時空間格子点の数で計算複雑性を8,3ドルに抑えることを示す。
論文 参考訳(メタデータ) (2023-02-06T15:26:41Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Hierarchical autoregressive neural networks for statistical systems [0.05156484100374058]
我々は、例えばスピンのような物理的自由度の階層的な結合を、システムの線形範囲$L$のスケーリングに置き換えるニューロンに提案する。
我々は,2次元Isingモデルに対して,最大128×128$スピンの格子をシミュレートし,時間ベンチマークを512×512$の格子に到達させることで,その2次元Isingモデルに対するアプローチを実証した。
論文 参考訳(メタデータ) (2022-03-21T13:55:53Z) - Low-bit Quantization of Recurrent Neural Network Language Models Using
Alternating Direction Methods of Multipliers [67.688697838109]
本稿では、乗算器の交互方向法(ADMM)を用いて、スクラッチから量子化RNNLMを訓練する新しい手法を提案する。
2つのタスクの実験から、提案されたADMM量子化は、完全な精度ベースライン RNNLM で最大31倍のモデルサイズ圧縮係数を達成したことが示唆された。
論文 参考訳(メタデータ) (2021-11-29T09:30:06Z) - Learning from Images: Proactive Caching with Parallel Convolutional
Neural Networks [94.85780721466816]
本稿では,プロアクティブキャッシングのための新しいフレームワークを提案する。
モデルベースの最適化とデータ駆動技術を組み合わせて、最適化問題をグレースケールのイメージに変換する。
数値計算の結果,提案手法は71.6%の計算時間を0.8%のコストで削減できることがわかった。
論文 参考訳(メタデータ) (2021-08-15T21:32:47Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Neural Networks are Convex Regularizers: Exact Polynomial-time Convex
Optimization Formulations for Two-layer Networks [70.15611146583068]
我々は、線形整列ユニット(ReLU)を用いた2層ニューラルネットワークのトレーニングの正確な表現を開発する。
我々の理論は半無限双対性と最小ノルム正規化を利用する。
論文 参考訳(メタデータ) (2020-02-24T21:32:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。