論文の概要: From Monte Carlo to neural networks approximations of boundary value
problems
- arxiv url: http://arxiv.org/abs/2209.01432v2
- Date: Mon, 4 Dec 2023 17:51:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 02:01:04.881027
- Title: From Monte Carlo to neural networks approximations of boundary value
problems
- Title(参考訳): モンテカルロからニューラルネットワークへの境界値問題の近似
- Authors: Lucian Beznea, Iulian Cimpean, Oana Lupascu-Stamate, Ionel Popescu,
Arghir Zarnescu
- Abstract要約: ポアソン方程式の解はモンテカルロ法により超ノルミーにおいて数値的に近似できることを示す。
また、得られたモンテカルロが構成的にレンダリングされることも示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we study probabilistic and neural network approximations for
solutions to Poisson equation subject to H\" older data in general bounded
domains of $\mathbb{R}^d$. We aim at two fundamental goals.
The first, and the most important, we show that the solution to Poisson
equation can be numerically approximated in the sup-norm by Monte Carlo
methods, { and that this can be done highly efficiently if we use a modified
version} of the walk on spheres algorithm { as an acceleration method. This
provides estimates which are efficient with respect to the prescribed
approximation error and with polynomial complexity in the dimension and the
reciprocal of the error.} {A crucial feature is that} the overall number of
samples does not not depend on the point at which the approximation is
performed.
As a second goal, we show that the obtained Monte Carlo solver renders { in a
constructive way} ReLU deep neural network (DNN) solutions to Poisson problem,
whose sizes depend at most polynomialy in the dimension $d$ and in the desired
error. In fact we show that the random DNN provides with high probability a
small approximation error and low polynomial complexity in the dimension.
- Abstract(参考訳): 本稿では,h\"古いデータに従属するポアソン方程式の解の確率的およびニューラルネットワーク的近似を,$\mathbb{r}^d$ の一般有界領域で研究する。
私たちは2つの基本的な目標を目指しています。
第一、そして最も重要なことは、ポアソン方程式の解をモンテカルロ法によって超ノルムで数値的に近似することができ、加速法としてウォーク・オン・球面アルゴリズム { の修正バージョン} を用いると、これは高効率にできることを示すことである。
これにより、所定の近似誤差と、誤差の次元および逆数における多項式複雑性に対して効率的な推定値が得られる。
重要な特徴は、サンプルの全体数は近似が実行される点に依存しないということである。
第2のゴールとして,得られたモンテカルロ解法では,最大多項式長が$d$と所望の誤差に依存するポアソン問題に対して,relu deep neural network (dnn) 解を合成的にレンダリングする。
実際、ランダムDNNは、その次元における小さな近似誤差と低い多項式複雑性を高い確率で提供することを示す。
関連論文リスト
- Polynomial-Time Solutions for ReLU Network Training: A Complexity
Classification via Max-Cut and Zonotopes [70.52097560486683]
我々は、ReLUネットワークの近似の難しさがマックス・カッツ問題の複雑さを反映しているだけでなく、特定の場合において、それと完全に一致することを証明した。
特に、$epsilonleqsqrt84/83-1approx 0.006$とすると、目的値に関して相対誤差$epsilon$でReLUネットワーク対象の近似グローバルデータセットを見つけることはNPハードであることが示される。
論文 参考訳(メタデータ) (2023-11-18T04:41:07Z) - Unbiased Kinetic Langevin Monte Carlo with Inexact Gradients [0.9558392439655016]
動力学的ランゲヴィンダイナミクスに基づく後進手段の非バイアス化手法を提案する。
提案した推定器は偏りがなく、有限分散となり、中心極限定理を満たす。
実験により, 有効試料当たりの勾配評価の数は, 不正確な勾配を用いた場合においても, 寸法に依存しないことが示唆された。
論文 参考訳(メタデータ) (2023-11-08T21:19:52Z) - A multiobjective continuation method to compute the regularization path
of deep neural networks [1.534667887016089]
線形モデルに基づく機械学習アプローチでは、疎外解と非正規化解との間に接続経路が存在する。
本稿では,上記の目的に対して,パレートフロント全体の近似を可能にするアルゴリズムを提案する。
さらに、正規化パスの知識がネットワークパラメトリゼーションの一般化を可能にすることを実証する。
論文 参考訳(メタデータ) (2023-08-23T10:08:52Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Last iterate convergence of SGD for Least-Squares in the Interpolation
regime [19.05750582096579]
基本最小二乗構成におけるノイズレスモデルについて検討する。
最適予測器が完全に入力に適合すると仮定し、$langletheta_*, phi(X) rangle = Y$, ここで$phi(X)$は無限次元の非線型特徴写像を表す。
論文 参考訳(メタデータ) (2021-02-05T14:02:20Z) - Multiscale regression on unknown manifolds [13.752772802705978]
マルチスケールで$mathcalM$に低次元座標を構築し、ローカルフィッティングによるマルチスケール回帰を行います。
本手法の一般化誤差を,事前のリッチクラス上で高い確率で有限サンプル境界を証明することによって解析する。
私たちのアルゴリズムは、サンプルサイズの準線形複雑性を持ち、定数は$D$で、指数は$d$です。
論文 参考訳(メタデータ) (2021-01-13T15:14:31Z) - Efficient semidefinite-programming-based inference for binary and
multi-class MRFs [83.09715052229782]
分割関数やMAP推定をペアワイズMRFで効率的に計算する手法を提案する。
一般のバイナリMRFから完全多クラス設定への半定緩和を拡張し、解法を用いて再び効率的に解けるようなコンパクトな半定緩和を開発する。
論文 参考訳(メタデータ) (2020-12-04T15:36:29Z) - Online Model Selection for Reinforcement Learning with Function
Approximation [50.008542459050155]
我々は、$tildeO(L5/6 T2/3)$ regretで最適な複雑性に適応するメタアルゴリズムを提案する。
また、メタアルゴリズムは、インスタンス依存の後悔境界を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-11-19T10:00:54Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。