論文の概要: Efficient Pricing and Hedging of High Dimensional American Options Using
Recurrent Networks
- arxiv url: http://arxiv.org/abs/2301.08232v1
- Date: Thu, 19 Jan 2023 18:41:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 14:13:26.132646
- Title: Efficient Pricing and Hedging of High Dimensional American Options Using
Recurrent Networks
- Title(参考訳): リカレントネットワークを用いた高次元アメリカンオプションの効率的な価格設定とヘッジ
- Authors: Andrew Na and Justin Wan
- Abstract要約: 本稿では,高次元の米国オプションの価格とデルタを計算するためのディープリカレントニューラルネットワーク(RNN)フレームワークを提案する。
提案する枠組みは,特定の時点だけでなく,時空全体の価格とデルタを推定する。
我々の数値シミュレーションは、これらの貢献を実証し、提案したディープRNNフレームワークが、時間とメモリにおける従来のフィードフォワードニューラルネットワークフレームワークよりも計算効率が高いことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a deep Recurrent neural network (RNN) framework for computing
prices and deltas of American options in high dimensions. Our proposed
framework uses two deep RNNs, where one network learns the price and the other
learns the delta of the option for each timestep. Our proposed framework yields
prices and deltas for the entire spacetime, not only at a given point (e.g. t =
0). The computational cost of the proposed approach is linear in time, which
improves on the quadratic time seen for feedforward networks that price
American options. The computational memory cost of our method is constant in
memory, which is an improvement over the linear memory costs seen in
feedforward networks. Our numerical simulations demonstrate these
contributions, and show that the proposed deep RNN framework is computationally
more efficient than traditional feedforward neural network frameworks in time
and memory.
- Abstract(参考訳): 本稿では,高次元の米国オプションの価格とデルタを計算するためのディープリカレントニューラルネットワーク(RNN)フレームワークを提案する。
提案フレームワークは2つのディープRNNを用いており、1つのネットワークが価格を、もう1つのネットワークが時間ステップ毎にオプションのデルタを学習する。
提案した枠組みは、与えられた点(例えば t = 0 など)に限らず、時空全体の価格とデルタをもたらす。
提案手法の計算コストは時間的に線形であり、アメリカのオプションの価格を下げるフィードフォワードネットワークで見られる二次時間によって改善される。
本手法の計算メモリコストはメモリ内で一定であり,feedforwardネットワークで見られる線形メモリコストよりも改善されている。
我々の数値シミュレーションは、これらの貢献を実証し、提案したディープRNNフレームワークが、時間とメモリにおける従来のフィードフォワードニューラルネットワークフレームワークよりも計算効率が高いことを示す。
関連論文リスト
- GhostRNN: Reducing State Redundancy in RNN with Cheap Operations [66.14054138609355]
本稿では,効率的なRNNアーキテクチャであるGhostRNNを提案する。
KWSとSEタスクの実験により、提案されたGhostRNNはメモリ使用量(40%)と計算コストを大幅に削減し、性能は類似している。
論文 参考訳(メタデータ) (2024-11-20T11:37:14Z) - High-Performance Temporal Reversible Spiking Neural Networks with $O(L)$ Training Memory and $O(1)$ Inference Cost [32.44622524827913]
スパイキングニューラルネットワーク(SNN)は、トレーニング中のメモリ要求を増大させ、推論エネルギーコストを増大させる。
本研究では、トレーニングと推論の課題に共同で取り組むために、SNN(T-RevSNN)のための新しい時間的可逆アーキテクチャを提案する。
T-RevSNNはImageNet上で優れた精度を実現し、メモリ効率、トレーニング時間加速度、推論エネルギー効率を大幅に改善することができる。
論文 参考訳(メタデータ) (2024-05-26T07:26:56Z) - Kronecker-Factored Approximate Curvature for Modern Neural Network
Architectures [85.76673783330334]
線形重み付け層の2つの異なる設定がクロネッカー型近似曲率(K-FAC)の2つの風味を動機付けている
重み付けをそれぞれ設定したディープ・リニア・ネットワークに対して正確であることを示す。
グラフニューラルネットワークと視覚変換器の両方をトレーニングするために、これらの2つのK-FACの違いをほとんど観測しない。
論文 参考訳(メタデータ) (2023-11-01T16:37:00Z) - Towards Zero Memory Footprint Spiking Neural Network Training [7.4331790419913455]
スパイキングニューラルネットワーク(SNN)は、連続値ではなくスパイクと呼ばれる離散時間イベントを使用して情報を処理する。
本稿では,メモリフットプリントが著しく低いことを特徴とする,革新的なフレームワークを提案する。
我々の設計では、現在のSNNノードと比較してメモリ使用量の削減を$mathbf58.65times$で達成できる。
論文 参考訳(メタデータ) (2023-08-16T19:49:24Z) - Efficient SGD Neural Network Training via Sublinear Activated Neuron
Identification [22.361338848134025]
本稿では,ReLUの活性化をシフトする2層ニューラルネットワークについて,幾何学的探索によるサブ線形時間における活性化ニューロンの同定を可能にする。
また、我々のアルゴリズムは、係数ノルム上界$M$とエラー項$epsilon$の2次ネットワークサイズで$O(M2/epsilon2)$時間に収束できることを示す。
論文 参考訳(メタデータ) (2023-07-13T05:33:44Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - FreeTickets: Accurate, Robust and Efficient Deep Ensemble by Training
with Dynamic Sparsity [74.58777701536668]
我々は、疎い畳み込みニューラルネットワークの性能を、ネットワークの高密度な部分よりも大きなマージンで向上させることができるFreeTicketsの概念を紹介した。
本研究では, ダイナミックな間隔を持つ2つの新しい効率的なアンサンブル手法を提案し, スパーストレーニング過程において, 多数の多様かつ正確なチケットを「無償」で撮影する。
論文 参考訳(メタデータ) (2021-06-28T10:48:20Z) - Optimal Stopping via Randomized Neural Networks [6.677219861416146]
本稿では、標準基底関数やディープニューラルネットワークの代わりにランダム化されたニューラルネットワークを使用することの利点について述べる。
我々のアプローチは、既存のアプローチがますます非現実的になるような高次元問題に適用できる。
いずれにせよ、我々のアルゴリズムは、最先端や他の関連する機械学習アプローチよりも時間的に優れている。
論文 参考訳(メタデータ) (2021-04-28T09:47:21Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Efficient Computation Reduction in Bayesian Neural Networks Through
Feature Decomposition and Memorization [10.182119276564643]
本稿では,計算コストを削減するため,効率的なBNN推論フローを提案する。
計算の約半分は従来の手法と比べて取り除くことができる。
We implement our approach in Verilog and synthesise it with 45 $nm$ FreePDK technology。
論文 参考訳(メタデータ) (2020-05-08T05:03:04Z) - Neural Networks and Value at Risk [59.85784504799224]
リスクしきい値推定における資産価値のモンテカルロシミュレーションを行う。
株式市場と長期債を試験資産として利用し、ニューラルネットワークについて検討する。
はるかに少ないデータでフィードされたネットワークは、大幅にパフォーマンスが悪くなっています。
論文 参考訳(メタデータ) (2020-05-04T17:41:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。