論文の概要: Deep neural network expressivity for optimal stopping problems
- arxiv url: http://arxiv.org/abs/2210.10443v1
- Date: Wed, 19 Oct 2022 10:22:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 16:05:31.784870
- Title: Deep neural network expressivity for optimal stopping problems
- Title(参考訳): 最適停止問題に対するディープニューラルネットワーク表現性
- Authors: Lukas Gonon
- Abstract要約: 最適な停止問題は、最大$varepsilon$の誤差を、最大$kappa dmathfrakq varepsilon-mathfrakr$の深いReLUニューラルネットワークによって近似することができる。
このことは、ディープニューラルネットワークが最適な停止問題を解決するために使用されるとき、次元性の呪いに悩まされないことを証明している。
- 参考スコア(独自算出の注目度): 2.741266294612776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article studies deep neural network expression rates for optimal
stopping problems of discrete-time Markov processes on high-dimensional state
spaces. A general framework is established in which the value function and
continuation value of an optimal stopping problem can be approximated with
error at most $\varepsilon$ by a deep ReLU neural network of size at most
$\kappa d^{\mathfrak{q}} \varepsilon^{-\mathfrak{r}}$. The constants
$\kappa,\mathfrak{q},\mathfrak{r} \geq 0$ do not depend on the dimension $d$ of
the state space or the approximation accuracy $\varepsilon$. This proves that
deep neural networks do not suffer from the curse of dimensionality when
employed to solve optimal stopping problems. The framework covers, for example,
exponential L\'evy models, discrete diffusion processes and their running
minima and maxima. These results mathematically justify the use of deep neural
networks for numerically solving optimal stopping problems and pricing American
options in high dimensions.
- Abstract(参考訳): 本稿では,高次元状態空間における離散時間マルコフ過程の最適停止問題に対するディープニューラルネットワーク表現率について検討する。
最適な停止問題の値関数と継続値を、最大$\varepsilon$で誤差を、最大$\kappa d^{\mathfrak{q}} \varepsilon^{-\mathfrak{r}}$で最大$\kappa d^{\mathfrak{q}} でDeep ReLUニューラルネットワークで近似する一般的な枠組みを確立する。
定数 $\kappa,\mathfrak{q},\mathfrak{r} \geq 0$ は状態空間の次元 $d$ や近似精度 $\varepsilon$ に依存しない。
これは、ディープニューラルネットワークが最適な停止問題を解決するために使われる場合、次元の呪いに苦しむことはないことを証明している。
このフレームワークは、例えば指数的l\'evyモデル、離散拡散過程、実行中のminimaとmaximaをカバーする。
これらの結果は、最適な停止問題を数値的に解くためのディープニューラルネットワークの使用を数学的に正当化し、高次元におけるアメリカのオプションの価格設定を行う。
関連論文リスト
- Sample Complexity of Neural Policy Mirror Descent for Policy
Optimization on Low-Dimensional Manifolds [75.51968172401394]
深部畳み込みニューラルネットワーク(CNN)を用いたNPMDアルゴリズムのサンプル複雑性について検討した。
NPMDの各イテレーションでは、値関数とポリシーの両方をCNNによってうまく近似することができる。
NPMDは状態空間の低次元構造を利用して次元の呪いから逃れることができることを示す。
論文 参考訳(メタデータ) (2023-09-25T07:31:22Z) - Sharp Lower Bounds on Interpolation by Deep ReLU Neural Networks at
Irregularly Spaced Data [2.7195102129095003]
Deep ReLUニューラルネットワークは、距離$delta$で区切られた$N$のデータポイントで値を補間することができる。
我々は$Omega(N)$パラメータが、$delta$が$N$で指数関数的に小さい状態において必要であることを示す。
アプリケーションとして、埋め込みエンドポイントにおけるソボレフ空間に対して、深いReLUニューラルネットワークが達成できる近似率に、低いバウンダリを与える。
論文 参考訳(メタデータ) (2023-02-02T02:46:20Z) - When Expressivity Meets Trainability: Fewer than $n$ Neurons Can Work [59.29606307518154]
幅が$m geq 2n/d$($d$は入力次元)である限り、その表現性は強く、すなわち、訓練損失がゼロの少なくとも1つの大域最小化器が存在することを示す。
また、実現可能な領域がよい局所領域であるような制約付き最適化の定式化も検討し、すべてのKKT点がほぼ大域最小値であることを示す。
論文 参考訳(メタデータ) (2022-10-21T14:41:26Z) - Understanding Deep Neural Function Approximation in Reinforcement
Learning via $\epsilon$-Greedy Exploration [53.90873926758026]
本稿では、強化学習(RL)における深部神経機能近似の理論的研究について述べる。
我々は、Besov(およびBarron)関数空間によって与えられるディープ(および2層)ニューラルネットワークによる$epsilon$-greedy探索により、バリューベースのアルゴリズムに焦点を当てる。
我々の解析は、ある平均測度$mu$の上の$L2(mathrmdmu)$-integrable空間における時間差誤差を再構成し、非イド設定の下で一般化問題に変換する。
論文 参考訳(メタデータ) (2022-09-15T15:42:47Z) - Solving parametric partial differential equations with deep rectified
quadratic unit neural networks [38.16617079681564]
本研究では、パラメトリックPDEの解マップを近似するための深部修正二次単位(ReQU)ニューラルネットワークの表現力について検討する。
精度を実現するために必要な深部ReQUニューラルネットワークのサイズに基づいて,上界$mathcalOleft(d3log_2qlog_2 (1/epsilon) right)$を導出する。
論文 参考訳(メタデータ) (2022-03-14T10:15:29Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - {\epsilon}-weakened Robustness of Deep Neural Networks [9.183179469739194]
本稿では,深層ニューラルネットワーク(DNN)の信頼性と安定性を解析するための,$varepsilon$-weakened robustnessの表記法を提案する。
我々は、$varepsilon$-weakened robustness decision problem is PP-complete and give a statistical decision algorithm with user-controllable error bound。
また、品質問題の解析にもその可能性を示します。
論文 参考訳(メタデータ) (2021-10-29T13:27:01Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。