論文の概要: Leave-one-out least squares Monte Carlo algorithm for pricing Bermudan options
- arxiv url: http://arxiv.org/abs/1810.02071v4
- Date: Thu, 16 May 2024 21:30:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-20 20:59:25.212081
- Title: Leave-one-out least squares Monte Carlo algorithm for pricing Bermudan options
- Title(参考訳): ベルムダンオプションの価格設定のための最小二乗モンテカルロアルゴリズム
- Authors: Jeechul Woo, Chenru Liu, Jaehyuk Choi,
- Abstract要約: 最小二乗モンテカルロアルゴリズム(LSM)はベルムダンオプションの価格設定に広く使われている。
シミュレーションを2倍にすることなく、ルックアヘッドバイアスを除去するLOOLSMアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.24578723416255754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The least squares Monte Carlo (LSM) algorithm proposed by Longstaff and Schwartz (2001) is widely used for pricing Bermudan options. The LSM estimator contains undesirable look-ahead bias, and the conventional technique of avoiding it requires additional simulation paths. We present the leave-one-out LSM (LOOLSM) algorithm to eliminate look-ahead bias without doubling simulations. We also show that look-ahead bias is asymptotically proportional to the regressors-to-paths ratio. Our findings are demonstrated with several option examples in which the LSM algorithm overvalues the options. The LOOLSM method can be extended to other regression-based algorithms that improve the LSM method.
- Abstract(参考訳): Longstaff and Schwartz (2001) によって提案された最小二乗モンテカルロ (LSM) アルゴリズムはベルムダンオプションの価格設定に広く使われている。
LSM推定器は、望ましくないルックアヘッドバイアスを含み、それを避けるには、さらなるシミュレーションパスが必要である。
シミュレーションを2倍にすることなく、ルックアヘッドバイアスを除去するLOOLSM(Left-one-out LSM)アルゴリズムを提案する。
また, 視線偏差は, 回帰器対パス比と漸近的に比例することを示した。
本研究は, LSMアルゴリズムがオプションを過大評価するいくつかのオプション例で実証した。
LOOLSM法は、LSM法を改善する他の回帰ベースのアルゴリズムに拡張することができる。
関連論文リスト
- Statistical-Computational Trade-offs for Recursive Adaptive Partitioning Estimators [23.056208049082134]
我々は,高次元回帰のためのグリーディアルゴリズムが局所最適点において立ち往生していることを示す。
低い推定誤差を達成するために、greedyトレーニングには$exp(Omega(d))$が必要であることを示す。
この二分法は、平均場状態における勾配降下(SGD)を訓練した2層ニューラルネットワークを反映する。
論文 参考訳(メタデータ) (2024-11-07T03:11:53Z) - Zeroth-Order Fine-Tuning of LLMs in Random Subspaces [66.27334633749734]
言語モデルのサイズが大きくなるにつれて、バックプロパゲーションに対するメモリ要求が増加する。
Zeroth-order (ZOZO) 最適化手法はメモリ効率の代替手段を提供する。
本稿では,SubZeroがファインチューニングを強化し,通常のZOZO手法と比較して高速な結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-11T17:01:43Z) - A Doubly Robust Approach to Sparse Reinforcement Learning [19.68978899041642]
エピソードスパークリニアマルコフ決定過程(SMDP)に対する新しい後悔アルゴリズムを提案する。
提案アルゴリズムは$tildeO(sigma-1_min s_star H sqrtN)$である。
論文 参考訳(メタデータ) (2023-10-23T18:52:17Z) - Refined Regret for Adversarial MDPs with Linear Function Approximation [50.00022394876222]
我々は,損失関数が約1,300ドル以上のエピソードに対して任意に変化するような,敵対的決定過程(MDP)の学習を検討する。
本稿では,同じ設定で$tildemathcal O(K2/3)$に対する後悔を改善する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-30T14:37:21Z) - Stochastic Direct Search Method for Blind Resource Allocation [6.574808513848414]
線形制約付きおよび微分自由最適化のための直接探索法(パターン探索とも呼ばれる)について検討する。
直接探索法は決定論的かつ制約のない場合において有限の後悔を達成できることを示す。
そこで本研究では,T2/3$のオーダを後悔させるようなダイレクトサーチの簡単な拡張を提案する。
論文 参考訳(メタデータ) (2022-10-11T07:40:45Z) - Langevin Monte Carlo for Contextual Bandits [72.00524614312002]
Langevin Monte Carlo Thompson Sampling (LMC-TS) が提案されている。
提案アルゴリズムは,文脈的帯域幅の特別な場合において,最高のトンプソンサンプリングアルゴリズムと同じサブ線形残差を達成できることを示す。
論文 参考訳(メタデータ) (2022-06-22T17:58:23Z) - Human-in-the-loop: Provably Efficient Preference-based Reinforcement
Learning with General Function Approximation [107.54516740713969]
本研究は,RL(Human-in-the-loop reinforcement learning)を軌道的嗜好で検討する。
各ステップで数値的な報酬を受ける代わりに、エージェントは人間の監督者から軌道上のペアよりも優先される。
一般関数近似を用いたPbRLの楽観的モデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-23T09:03:24Z) - Breaking the Sample Complexity Barrier to Regret-Optimal Model-Free
Reinforcement Learning [52.76230802067506]
漸進的強化学習における後悔を最小限に抑えるために,新しいモデルフリーアルゴリズムを提案する。
提案アルゴリズムは、2つのQ-ラーニングシーケンスの助けを借りて、初期設定された参照更新ルールを用いる。
初期の分散還元法の設計原理は、他のRL設定とは独立した関心を持つかもしれない。
論文 参考訳(メタデータ) (2021-10-09T21:13:48Z) - Low-Complexity Set-Membership Normalized LMS Algorithm for Sparse System
Modeling [0.0]
本稿では, 未知のシステムの空間性を利用するために, 2つの低複雑さな集合メンバーシップ正規化最小二乗法 (LCSM-NLMS1 と LCSM-NLMS2) アルゴリズムを提案する。
数値計算の結果、これらのアルゴリズムを最先端の空間認識アルゴリズムと比較した場合に類似した性能を示す。
論文 参考訳(メタデータ) (2020-07-12T20:56:49Z) - Thompson Sampling Algorithms for Mean-Variance Bandits [97.43678751629189]
我々は平均分散MABのためのトンプソンサンプリング型アルゴリズムを開発した。
我々はまた、ガウシアンとベルヌーイの盗賊に対する包括的後悔の分析も提供する。
我々のアルゴリズムは、全てのリスク許容度に対して既存のLCBベースのアルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2020-02-01T15:33:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。