論文の概要: Optimal Stopping via Randomized Neural Networks
- arxiv url: http://arxiv.org/abs/2104.13669v4
- Date: Fri, 1 Dec 2023 11:10:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 19:28:50.618836
- Title: Optimal Stopping via Randomized Neural Networks
- Title(参考訳): ランダムニューラルネットワークによる最適停止
- Authors: Calypso Herrera, Florian Krach, Pierre Ruyssen, Josef Teichmann
- Abstract要約: 本稿では、標準基底関数やディープニューラルネットワークの代わりにランダム化されたニューラルネットワークを使用することの利点について述べる。
我々のアプローチは、既存のアプローチがますます非現実的になるような高次元問題に適用できる。
いずれにせよ、我々のアルゴリズムは、最先端や他の関連する機械学習アプローチよりも時間的に優れている。
- 参考スコア(独自算出の注目度): 6.677219861416146
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper presents the benefits of using randomized neural networks instead
of standard basis functions or deep neural networks to approximate the
solutions of optimal stopping problems. The key idea is to use neural networks,
where the parameters of the hidden layers are generated randomly and only the
last layer is trained, in order to approximate the continuation value. Our
approaches are applicable to high dimensional problems where the existing
approaches become increasingly impractical. In addition, since our approaches
can be optimized using simple linear regression, they are easy to implement and
theoretical guarantees can be provided. We test our approaches for American
option pricing on Black--Scholes, Heston and rough Heston models and for
optimally stopping a fractional Brownian motion. In all cases, our algorithms
outperform the state-of-the-art and other relevant machine learning approaches
in terms of computation time while achieving comparable results. Moreover, we
show that they can also be used to efficiently compute Greeks of American
options.
- Abstract(参考訳): 本稿では,標準基底関数やディープニューラルネットワークではなく,ランダム化されたニューラルネットワークを使用することによる最適停止問題の解を近似する利点を提案する。
重要なアイデアは、ニューラルネットワークを使用することで、継続値を近似するために、隠れたレイヤのパラメータがランダムに生成され、最後のレイヤのみがトレーニングされる。
我々のアプローチは、既存のアプローチがますます現実的でない高次元問題に適用できる。
さらに,本手法は単純な線形回帰を用いて最適化できるので,実装が容易であり,理論的保証が提供できる。
black-scholes, heston, rough hestonモデルにおけるアメリカのオプション価格設定と,分数ブラウン運動の最適停止について検討した。
いずれの場合も、我々のアルゴリズムは計算時間の観点から最先端や他の関連する機械学習アプローチよりも優れており、同等の結果が得られます。
さらに,アメリカの選択肢のギリシア語を効率的に計算できることを示す。
関連論文リスト
- The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - A multiobjective continuation method to compute the regularization path
of deep neural networks [1.534667887016089]
線形モデルに基づく機械学習アプローチでは、疎外解と非正規化解との間に接続経路が存在する。
本稿では,上記の目的に対して,パレートフロント全体の近似を可能にするアルゴリズムを提案する。
さらに、正規化パスの知識がネットワークパラメトリゼーションの一般化を可能にすることを実証する。
論文 参考訳(メタデータ) (2023-08-23T10:08:52Z) - Neural Quantile Optimization for Edge-Cloud Computing [17.57923005428252]
我々は,バースト可能な請求書に基づいて制約を満足し,コストを最小化するエッジ・クラウド・コンピューティング・ネットワークにおいて,最適なトラフィック割当方式を模索する。
本稿では,教師なし学習による最適化問題を解決するため,Gumbel-softmaxサンプリングネットワークを提案する。
トレーニングされたネットワークは、効率的なトラフィック割当スキームサンプリングとして機能し、実現可能性およびコスト関数値のランダム戦略を著しく上回る。
論文 参考訳(メタデータ) (2023-07-11T11:05:10Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Sample-Then-Optimize Batch Neural Thompson Sampling [50.800944138278474]
我々はトンプソンサンプリング(TS)ポリシーに基づくブラックボックス最適化のための2つのアルゴリズムを提案する。
入力クエリを選択するには、NNをトレーニングし、トレーニングされたNNを最大化してクエリを選択するだけです。
我々のアルゴリズムは、大きなパラメータ行列を逆転する必要性を助長するが、TSポリシーの妥当性は保たれている。
論文 参考訳(メタデータ) (2022-10-13T09:01:58Z) - Neural Network Pruning Through Constrained Reinforcement Learning [3.2880869992413246]
本稿では,ニューラルネットワークを解析するための一般的な手法を提案する。
提案手法は、事前に定義された計算予算を尊重するためにニューラルネットワークを創出することができる。
標準画像分類データセットにおける最先端手法との比較により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-16T11:57:38Z) - Adapting to Misspecification in Contextual Bandits [82.55565343668246]
我々は、$varepsilon$-misspecified contextual banditsに対して、新しいオラクル効率アルゴリズム群を導入する。
我々は、未知の不特定値に対して最適な$O(dsqrtT + varepsilonsqrtdT)$ regret boundを達成する最初のアルゴリズムを得る。
論文 参考訳(メタデータ) (2021-07-12T21:30:41Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Byzantine-Resilient Non-Convex Stochastic Gradient Descent [61.6382287971982]
敵対的レジリエントな分散最適化。
機械は独立して勾配を計算し 協力することができます
私達のアルゴリズムは新しい集中の技術およびサンプル複雑性に基づいています。
それは非常に実用的です:それはないときすべての前の方法の性能を改善します。
セッティングマシンがあります。
論文 参考訳(メタデータ) (2020-12-28T17:19:32Z) - Fast semidefinite programming with feedforward neural networks [0.0]
本稿では,ニューラルネットワークを用いた実現可能性半定プログラムを提案する。
半確定プログラムを一度でも正確に解くことなく、ネットワークをトレーニングする。
トレーニングされたニューラルネットワークは、従来の解法と比較して、桁違いにスピードが向上することを示している。
論文 参考訳(メタデータ) (2020-11-11T14:01:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。