論文の概要: DeepSVM: Learning Stochastic Volatility Models with Physics-Informed Deep Operator Networks
- arxiv url: http://arxiv.org/abs/2512.07162v1
- Date: Mon, 08 Dec 2025 04:53:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.708589
- Title: DeepSVM: Learning Stochastic Volatility Models with Physics-Informed Deep Operator Networks
- Title(参考訳): DeepSVM:物理インフォームドディープオペレータネットワークを用いた確率的ボラティリティモデル学習
- Authors: Kieran A. Malandain, Selim Kalici, Hakob Chakhoyan,
- Abstract要約: DeepSVMは物理インフォームドなDeep Operator Network (PI-DeepONet) で、Hestonモデルの解演算子を学習するために設計された。
我々は、端末ペイオフと静的な非定常条件を設計により強制する制約付きアンサッツを用いる。
DeepSVMは、最終的なトレーニング損失が10~5ドルに達し、さまざまな典型的な市場のダイナミクスにわたって、非常に正確なオプション価格を予測する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time calibration of stochastic volatility models (SVMs) is computationally bottlenecked by the need to repeatedly solve coupled partial differential equations (PDEs). In this work, we propose DeepSVM, a physics-informed Deep Operator Network (PI-DeepONet) designed to learn the solution operator of the Heston model across its entire parameter space. Unlike standard data-driven deep learning (DL) approaches, DeepSVM requires no labelled training data. Rather, we employ a hard-constrained ansatz that enforces terminal payoffs and static no-arbitrage conditions by design. Furthermore, we use Residual-based Adaptive Refinement (RAR) to stabilize training in difficult regions subject to high gradients. Overall, DeepSVM achieves a final training loss of $10^{-5}$ and predicts highly accurate option prices across a range of typical market dynamics. While pricing accuracy is high, we find that the model's derivatives (Greeks) exhibit noise in the at-the-money (ATM) regime, highlighting the specific need for higher-order regularization in physics-informed operator learning.
- Abstract(参考訳): 確率的ボラティリティモデル(SVM)のリアルタイムキャリブレーションは、結合された偏微分方程式(PDE)を繰り返し解く必要性によって計算的にボトルネックとなる。
本研究では,物理インフォームドなDeep Operator Network (PI-DeepONet) であるDeepSVMを提案する。
標準的なデータ駆動型ディープラーニング(DL)アプローチとは異なり、DeepSVMはラベル付きトレーニングデータを必要としない。
むしろ、端末ペイオフと静的な非定常条件を設計によって強制する、制約の厳しいアンサッツを採用する。
さらに,Residual-based Adaptive Refinement (RAR) を用いて,高勾配条件下での訓練の安定化を図る。
全体として、DeepSVMは10^{-5}$の最終的なトレーニング損失を達成し、典型的な市場ダイナミクスの範囲で非常に正確なオプション価格を予測する。
価格の精度は高いが、モデル導関数(Greeks)はATM(on-the-money)システムにノイズを示し、物理インフォームド演算子学習における高次正規化の必要性を強調している。
関連論文リスト
- Physics-informed Neural Operator Learning for Nonlinear Grad-Shafranov Equation [18.564353542797946]
磁気閉じ込め核融合では、Grad-Shafranov方程式(GSE)の迅速かつ正確な解はリアルタイムプラズマ制御と解析に不可欠である。
従来の数値解法は精度が高く、計算は禁じられているが、データ駆動サロゲートは素早く推論するが、物理法則を強制せず、トレーニング分布をはるかに越えて一般化することができない。
本稿では, GSE 解演算子を直接学習する物理インフォームド・ニューラル演算子 (PINO) について述べる。
論文 参考訳(メタデータ) (2025-11-24T13:46:38Z) - AMORE: Adaptive Multi-Output Operator Network for Stiff Chemical Kinetics [4.621457883636921]
固形系の時間積分は燃焼、超音速、その他の反応性輸送系における計算コストの主要な源である。
複数の出力と適応損失関数を予測できる演算子で構成されるフレームワークであるAMOREを開発した。
論文 参考訳(メタデータ) (2025-10-15T00:43:30Z) - TensorGRaD: Tensor Gradient Robust Decomposition for Memory-Efficient Neural Operator Training [91.8932638236073]
textbfTensorGRaDは,重み付けに伴うメモリ問題に直接対処する新しい手法である。
SparseGRaD は総メモリ使用量を 50% 以上削減し,同時に精度も向上することを示した。
論文 参考訳(メタデータ) (2025-01-04T20:51:51Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Online learning techniques for prediction of temporal tabular datasets
with regime changes [0.0]
時間パネルデータセットの予測をランキングするモジュール型機械学習パイプラインを提案する。
パイプラインのモジュラリティにより、GBDT(Gradient Boosting Decision Tree)やニューラルネットワークなど、さまざまなモデルの使用が可能になる。
モデルの再トレーニングを必要としないオンライン学習技術は、予測後の結果を高めるために使用することができる。
論文 参考訳(メタデータ) (2022-12-30T17:19:00Z) - Physics-informed machine learning with differentiable programming for
heterogeneous underground reservoir pressure management [64.17887333976593]
地下貯水池の過圧化を避けることは、CO2の沈殿や排水の注入といった用途に欠かせない。
地中における複雑な不均一性のため, 噴射・抽出制御による圧力管理は困難である。
過圧化防止のための流体抽出速度を決定するために、フル物理モデルと機械学習を用いた微分可能プログラミングを用いる。
論文 参考訳(メタデータ) (2022-06-21T20:38:13Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Predicting Training Time Without Training [120.92623395389255]
我々は、事前訓練された深層ネットワークが損失関数の所定の値に収束する必要がある最適化ステップの数を予測する問題に取り組む。
我々は、微調整中の深部ネットワークのトレーニングダイナミクスが線形化モデルによってよく近似されているという事実を活用する。
トレーニングをする必要なく、特定の損失にモデルを微調整するのに要する時間を予測できます。
論文 参考訳(メタデータ) (2020-08-28T04:29:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。