論文の概要: Time Deep Gradient Flow Method for pricing American options
- arxiv url: http://arxiv.org/abs/2507.17606v1
- Date: Wed, 23 Jul 2025 15:39:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:15.06335
- Title: Time Deep Gradient Flow Method for pricing American options
- Title(参考訳): アメリカのオプションの価格設定のための時間勾配流法
- Authors: Jasper Rou,
- Abstract要約: ニューラルネットワークを用いた多次元アメリカンパットオプションの価格設定手法をBlackScholes and Hestonモデルで検討する。
我々はTDGF法とDGM法という2つのアプローチに注目した。
TDGFとDGMはどちらも計算速度で従来のモンテカルロ法よりも高い精度を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this research, we explore neural network-based methods for pricing multidimensional American put options under the BlackScholes and Heston model, extending up to five dimensions. We focus on two approaches: the Time Deep Gradient Flow (TDGF) method and the Deep Galerkin Method (DGM). We extend the TDGF method to handle the free-boundary partial differential equation inherent in American options. We carefully design the sampling strategy during training to enhance performance. Both TDGF and DGM achieve high accuracy while outperforming conventional Monte Carlo methods in terms of computational speed. In particular, TDGF tends to be faster during training than DGM.
- Abstract(参考訳): 本研究では,ブラックスコールズ・アンド・ヘストンモデルの下で,ニューラルネットワークを用いた多次元アメリカンプットオプションの価格設定手法について検討し,最大5次元まで拡張する。
本稿では,TDGF(Time Deep Gradient Flow)法とDGM(Deep Galerkin Method)法という2つのアプローチに注目した。
我々はTDGF法を拡張し、アメリカの選択肢に固有の自由有界偏微分方程式を扱う。
トレーニング中のサンプリング戦略を慎重に設計し,性能向上を図る。
TDGFとDGMはどちらも計算速度で従来のモンテカルロ法よりも高い精度を実現している。
特にTDGFはDGMよりも訓練が早い傾向にある。
関連論文リスト
- Error Analysis of Deep PDE Solvers for Option Pricing [0.0]
ディープラーニングベースのPDEソルバは、この問題に対する迅速な解決策として最近登場した。
本研究の目的は,深層PDEソルバの実用的オプション価格設定実装における有効性に関する実用的な洞察を提供することである。
論文 参考訳(メタデータ) (2025-05-08T10:45:59Z) - Inverse-Free Fast Natural Gradient Descent Method for Deep Learning [52.0693420699086]
本稿では,第1期における逆転のみを必要とする高速な自然勾配降下法を提案する。
FNGDは1次法の平均和と類似性を示し、FNGDの計算複雑性は1次法に匹敵する。
論文 参考訳(メタデータ) (2024-03-06T05:13:28Z) - Manifold Preserving Guided Diffusion [121.97907811212123]
条件付き画像生成は、コスト、一般化可能性、タスク固有のトレーニングの必要性といった課題に直面している。
トレーニング不要な条件生成フレームワークであるManifold Preserving Guided Diffusion (MPGD)を提案する。
論文 参考訳(メタデータ) (2023-11-28T02:08:06Z) - FedDA: Faster Framework of Local Adaptive Gradient Methods via Restarted
Dual Averaging [104.41634756395545]
フェデレートラーニング(Federated Learning, FL)は、大規模な分散データに取り組むための新たな学習パラダイムである。
局所適応勾配法のための新しいフレームワークである textbfFedDA を提案する。
textbfFedDA-MVR は適応FLアルゴリズムとしては初めてこの速度を実現することを示す。
論文 参考訳(メタデータ) (2023-02-13T05:10:30Z) - Nesterov Accelerated ADMM for Fast Diffeomorphic Image Registration [63.15453821022452]
ディープラーニングに基づくアプローチの最近の発展は、DiffIRのサブ秒間実行を実現している。
本稿では,中間定常速度場を機能的に構成する簡易な反復スキームを提案する。
次に、任意の順序の正規化項を用いて、これらの速度場に滑らかさを課す凸最適化モデルを提案する。
論文 参考訳(メタデータ) (2021-09-26T19:56:45Z) - Faster Meta Update Strategy for Noise-Robust Deep Learning [62.08964100618873]
我々は,メタグラデーションの最も高価なステップをより高速なレイヤワイズ近似に置き換えるために,新しいファMUS(Faster Meta Update Strategy)を導入する。
本手法は,同等あるいはさらに優れた一般化性能を維持しつつ,トレーニング時間の3分の2を節約できることを示す。
論文 参考訳(メタデータ) (2021-04-30T16:19:07Z) - Momentum-Based Policy Gradient Methods [133.53164856723782]
モデルフリー強化学習のための効率的なモーメントに基づくポリシー勾配手法のクラスを提案する。
特に,IS-MBPG法の適応的でないバージョンを提示するが,これは大きなバッチを伴わずに$O(epsilon-3)$と最もよく知られたサンプルの複雑さに達する。
論文 参考訳(メタデータ) (2020-07-13T20:44:15Z) - Adaptive Gradient Methods Can Be Provably Faster than SGD after Finite
Epochs [25.158203665218164]
適応勾配法は有限時間後にランダムシャッフルSGDよりも高速であることを示す。
我々の知る限り、適応的勾配法は有限時間後にSGDよりも高速であることを示すのはこれが初めてである。
論文 参考訳(メタデータ) (2020-06-12T09:39:47Z) - Momentum Improves Normalized SGD [51.27183254738711]
モーメントを追加することで、目的に対する大きなバッチサイズの必要性を確実に排除できることを示す。
本稿では,ResNet-50 や BERT といった大規模タスクの事前学習において,提案手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-02-09T07:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。