論文の概要: A numerical approach for the fractional Laplacian via deep neural
networks
- arxiv url: http://arxiv.org/abs/2308.16272v1
- Date: Wed, 30 Aug 2023 19:02:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 18:39:26.747143
- Title: A numerical approach for the fractional Laplacian via deep neural
networks
- Title(参考訳): ディープニューラルネットワークを用いた分数ラプラシアンの数値解法
- Authors: Nicol\'as Valenzuela
- Abstract要約: 有界および凸領域上のディリクレ境界条件に対する分数楕円問題として$D$ of $mathbbRd$, $d geq 2$を考える。
本稿では,Deep Neural Networks による分数分解問題の解を近似した勾配降下アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the fractional elliptic problem with Dirichlet boundary
conditions on a bounded and convex domain $D$ of $\mathbb{R}^d$, with $d \geq
2$. In this paper, we perform a stochastic gradient descent algorithm that
approximates the solution of the fractional problem via Deep Neural Networks.
Additionally, we provide four numerical examples to test the efficiency of the
algorithm, and each example will be studied for many values of $\alpha \in
(1,2)$ and $d \geq 2$.
- Abstract(参考訳): 境界および凸領域上のディリクレ境界条件の分数楕円問題として$D$ of $\mathbb{R}^d$, with $d \geq 2$を考える。
本稿では,Deep Neural Networks による分数分解問題の解を近似した確率勾配降下アルゴリズムを提案する。
さらに、アルゴリズムの効率をテストするために4つの数値例を提供し、各例は $\alpha \in (1,2)$ と $d \geq 2$ の多くの値に対して研究される。
関連論文リスト
- Optimal Approximation of Zonoids and Uniform Approximation by Shallow
Neural Networks [2.7195102129095003]
以下の2つの問題について検討する。
1つ目は、$mathbbRd+1$の任意のソノイドがハウスドルフ距離で$n$の線分で近似できる誤差を決定することである。
2つ目は、変動空間上の浅いReLU$k$ニューラルネットワークの均一ノルムにおける最適近似率を決定することである。
論文 参考訳(メタデータ) (2023-07-28T03:43:17Z) - Detection-Recovery Gap for Planted Dense Cycles [72.4451045270967]
期待帯域幅$n tau$とエッジ密度$p$をエルドホス=R'enyiグラフ$G(n,q)$に植え込むモデルを考える。
低次アルゴリズムのクラスにおいて、関連する検出および回復問題に対する計算しきい値を特徴付ける。
論文 参考訳(メタデータ) (2023-02-13T22:51:07Z) - Convergence Analysis of the Deep Galerkin Method for Weak Solutions [9.920833699101195]
DGMWの収束率は$mathcalO(n-1/d)$であり、弱解に対する最初の収束結果である。
我々は、$H1$ノルムの近似誤差の上限を導出し、Rademacher複雑性による統計的誤差を導出する。
論文 参考訳(メタデータ) (2023-02-05T15:25:16Z) - A Newton-CG based barrier-augmented Lagrangian method for general
nonconvex conic optimization [77.8485863487028]
本稿では、2つの異なる対象の一般円錐最適化を最小化する近似二階定常点(SOSP)について検討する。
特に、近似SOSPを見つけるためのNewton-CGベースの拡張共役法を提案する。
論文 参考訳(メタデータ) (2023-01-10T20:43:29Z) - A first-order primal-dual method with adaptivity to local smoothness [64.62056765216386]
凸凹対象 $min_x max_y f(x) + langle Ax, yrangle - g*(y)$, ここで、$f$ は局所リプシッツ勾配を持つ凸関数であり、$g$ は凸かつ非滑らかである。
主勾配ステップと2段ステップを交互に交互に行うCondat-Vuアルゴリズムの適応バージョンを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:19:30Z) - An algorithmic view of $\ell_2$ regularization and some path-following
algorithms [7.6146285961466]
凸損失関数に対する$ell$-regularized Solution pathと通常の微分方程式(ODE)の解との等価性を確立する。
この等価性は、溶液経路を勾配降下のハイブリッドの流れと見なすことができ、ニュートン法は経験的損失に適用できることを示した。
ホモトピー法と数値ODE解法に基づく新しい経路追従アルゴリズムを提案し,解経路を数値的に近似する。
論文 参考訳(メタデータ) (2021-07-07T16:00:13Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - A Unified Single-loop Alternating Gradient Projection Algorithm for
Nonconvex-Concave and Convex-Nonconcave Minimax Problems [8.797831153231664]
提案手法は,理論上の一般凸目標保証を用いた最小値問題の解法である。
提案アルゴリズムは,ノンカベエプシロン・コンケーブ(強)と(強)コンベックス・ノン・コンケーブ(強)のミニマックス問題を解くために利用できることを示す。
論文 参考訳(メタデータ) (2020-06-03T04:00:52Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z) - On Gradient Descent Ascent for Nonconvex-Concave Minimax Problems [86.92205445270427]
非コンミニマックス問題、$min_mathbfx max_mathhidoty f(mathbfdoty)$を効率的に考える。
論文 参考訳(メタデータ) (2019-06-02T03:03:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。