論文の概要: Error Estimates for the Variational Training of Neural Networks with
Boundary Penalty
- arxiv url: http://arxiv.org/abs/2103.01007v1
- Date: Mon, 1 Mar 2021 13:55:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 15:44:53.058585
- Title: Error Estimates for the Variational Training of Neural Networks with
Boundary Penalty
- Title(参考訳): 境界ペナルティを有するニューラルネットワークの変分学習における誤差推定
- Authors: Johannes M\"uller, Marius Zeinhofer
- Abstract要約: 空間$H1(Omega)$上の二次エネルギーに対するリッツ法による誤差の推定値を確立する。
境界ペナルティ法で処理されるディリクレ境界値に対しては,特に注意が払われる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We establish estimates on the error made by the Ritz method for quadratic
energies on the space $H^1(\Omega)$ in the approximation of the solution of
variational problems with different boundary conditions. Special attention is
paid to the case of Dirichlet boundary values which are treated with the
boundary penalty method. We consider arbitrary and in general non linear
classes $V\subseteq H^1(\Omega)$ of ansatz functions and estimate the error in
dependence of the optimisation accuracy, the approximation capabilities of the
ansatz class and - in the case of Dirichlet boundary values - the penalisation
strength $\lambda$. For non-essential boundary conditions the error of the Ritz
method decays with the same rate as the approximation rate of the ansatz
classes. For the boundary penalty method we obtain that given an approximation
rate of $r$ in $H^1(\Omega)$ and an approximation rate of $s$ in
$L^2(\partial\Omega)$ of the ansatz classes, the optimal decay rate of the
estimated error is $\min(s/2, r) \in [r/2, r]$ and achieved by choosing
$\lambda_n\sim n^{s}$. We discuss how this rate can be improved, the relation
to existing estimates for finite element functions as well as the implications
for ansatz classes which are given through ReLU networks. Finally, we use the
notion of $\Gamma$-convergence to show that the Ritz method converges for a
wide class of energies including nonlinear stationary PDEs like the
$p$-Laplace.
- Abstract(参考訳): 我々は、異なる境界条件を持つ変分問題の解の近似において、空間 $H^1(\Omega)$ 上の二次エネルギーに対するリッツ法による誤差を推定する。
境界ペナルティ法で処理されるディリクレ境界値に対しては,特に注意が払われる。
任意の非線型クラス $V\subseteq H^1(\Omega)$ を検討し、最適化精度、アンサツクラスの近似能力、および-ディリクレ境界値の場合-ペナルイゼーション強度 $\lambda$ に依存する誤差を推定する。
非随意境界条件では、リッツ法の誤差はアンザッツ類の近似率と同じ速度で減衰する。
境界ペナルティ法では、近似レートが$r$ in $H^1(\Omega)$と近似レートが$s$ in $L^2(\partial\Omega)$と与えられると、推定誤差の最適崩壊率は$\min(s/2, r) \in [r/2, r]$となり、$\lambda_n\sim n^{s}$を選択することで達成される。
この速度をどのように改善できるか、有限要素関数の既存の推定値との関係、およびReLUネットワークを通じて与えられるアンサッツクラスへの影響について論じる。
最後に、$\Gamma$-convergence の概念を使用して、Ritz メソッドが $p$-Laplace のような非線形定常 PDE を含む幅広いエネルギークラスに収束することを示します。
関連論文リスト
- Variance-reduced first-order methods for deterministically constrained stochastic nonconvex optimization with strong convergence guarantees [1.2562458634975162]
既存の方法は典型的には$epsilon$-stochasticの固定点を見つけることを目的としている。
多くの実践的応用において、制約がほぼ確実に満たされることが重要であり、そのような$epsilon$-stochasticの定常点が望ましくない可能性がある。
論文 参考訳(メタデータ) (2024-09-16T00:26:42Z) - Nearly Minimax Optimal Regret for Learning Linear Mixture Stochastic
Shortest Path [80.60592344361073]
線形混合遷移カーネルを用いた最短経路(SSP)問題について検討する。
エージェントは繰り返し環境と対話し、累積コストを最小化しながら特定の目標状態に到達する。
既存の作業は、イテレーションコスト関数の厳密な下限や、最適ポリシーに対する期待長の上限を仮定することが多い。
論文 参考訳(メタデータ) (2024-02-14T07:52:00Z) - Rates of Convergence in Certain Native Spaces of Approximations used in
Reinforcement Learning [0.0]
本稿では、再生カーネルヒルベルト空間(RKHS)$H(Omega)$の集合に生じる値関数近似の収束率について研究する。
値関数およびコントローラ近似における誤差の上限の明示は、有限次元近似の空間に対して$mathcalP_H,N$で導かれる。
論文 参考訳(メタデータ) (2023-09-14T02:02:08Z) - Optimal Approximation of Zonoids and Uniform Approximation by Shallow
Neural Networks [2.7195102129095003]
以下の2つの問題について検討する。
1つ目は、$mathbbRd+1$の任意のソノイドがハウスドルフ距離で$n$の線分で近似できる誤差を決定することである。
2つ目は、変動空間上の浅いReLU$k$ニューラルネットワークの均一ノルムにおける最適近似率を決定することである。
論文 参考訳(メタデータ) (2023-07-28T03:43:17Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Gradient-Free Methods for Deterministic and Stochastic Nonsmooth
Nonconvex Optimization [94.19177623349947]
非滑らかな非最適化問題は、機械学習とビジネス製造に現れる。
2つのコア課題は、有限収束を保証する効率的な方法の開発を妨げる。
GFMとSGFMの2相版も提案され, 改良された大規模評価結果が得られた。
論文 参考訳(メタデータ) (2022-09-12T06:53:24Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - Convergence of Langevin Monte Carlo in Chi-Squared and Renyi Divergence [8.873449722727026]
推定値である$widetildemathcalO(depsilon-1)$が,これらの測定値の既知レートを改善することを示す。
特に凸および1次滑らかなポテンシャルについて、LCCアルゴリズムは、これらの測定値の既知率を改善するために$widetildemathcalO(depsilon-1)$を推定する。
論文 参考訳(メタデータ) (2020-07-22T18:18:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。