論文の概要: De Rham compatible Deep Neural Network FEM
- arxiv url: http://arxiv.org/abs/2201.05395v3
- Date: Fri, 2 Jun 2023 08:38:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 21:27:16.161684
- Title: De Rham compatible Deep Neural Network FEM
- Title(参考訳): de rham互換深層ニューラルネットワークfem
- Authors: Marcello Longo, Joost A. A. Opschoor, Nico Disch, Christoph Schwab,
Jakob Zech
- Abstract要約: DNNでは通常のsimplicial partitions $mathcalT$ of $Omega$の制限は不要である。
我々は、高階互換空間や他の非互換な離散化のクラスへの構成の一般化を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On general regular simplicial partitions $\mathcal{T}$ of bounded polytopal
domains $\Omega \subset \mathbb{R}^d$, $d\in\{2,3\}$, we construct \emph{exact
neural network (NN) emulations} of all lowest order finite element spaces in
the discrete de Rham complex. These include the spaces of piecewise constant
functions, continuous piecewise linear (CPwL) functions, the classical
``Raviart-Thomas element'', and the ``N\'{e}d\'{e}lec edge element''. For all
but the CPwL case, our network architectures employ both ReLU (rectified linear
unit) and BiSU (binary step unit) activations to capture discontinuities. In
the important case of CPwL functions, we prove that it suffices to work with
pure ReLU nets. Our construction and DNN architecture generalizes previous
results in that no geometric restrictions on the regular simplicial partitions
$\mathcal{T}$ of $\Omega$ are required for DNN emulation. In addition, for CPwL
functions our DNN construction is valid in any dimension $d\geq 2$. Our
``FE-Nets'' are required in the variationally correct, structure-preserving
approximation of boundary value problems of electromagnetism in nonconvex
polyhedra $\Omega \subset \mathbb{R}^3$. They are thus an essential ingredient
in the application of e.g., the methodology of ``physics-informed NNs'' or
``deep Ritz methods'' to electromagnetic field simulation via deep learning
techniques. We indicate generalizations of our constructions to higher-order
compatible spaces and other, non-compatible classes of discretizations, in
particular the ``Crouzeix-Raviart'' elements and Hybridized, Higher Order (HHO)
methods.
- Abstract(参考訳): 一般の正則な単純分割 $\mathcal{T}$ of bounded polytopal domain $\Omega \subset \mathbb{R}^d$, $d\in\{2,3\}$ では、離散ド・ラム複体内のすべての最下階有限要素空間に対して \emph{exact Neural Network (NN) emulations} を構築する。
これらには、ピースワイズ定数関数の空間、連続ピースワイズ線型(CPwL)関数、古典的な ``Raviart-Thomas element'' や ``N\'{e}d\'{e}lec edge element'' などが含まれる。
CPwLの場合を除いて、我々のネットワークアーキテクチャはReLU(修正線形単位)とBiSU(バイナリステップ単位)の両方のアクティベーションを用いて不連続を捕捉する。
CPwL関数の重要な場合において、純粋なReLUネットを扱うのに十分であることを示す。
我々の構成とDNNアーキテクチャは、DNNエミュレーションに必要となる通常のsimplicial partitions $\mathcal{T}$ of $\Omega$の幾何学的制限は不要であるとして、以前の結果を一般化する。
さらに、CPwL 関数に対しては、DNN の構成は任意の次元 $d\geq 2$ で有効である。
fe-nets'' は、非凸ポリヘドラ $\omega \subset \mathbb{r}^3$ における電磁気学の境界値問題の変分的正しい構造保存近似に必要である。
したがって、例えば ‘physics-informed nns'' や ‘deep ritz method' の方法論を深層学習技術による電磁場シミュレーションに適用する上で必須の要素である。
我々は、高階互換空間や他の非互換離散化クラス、特に ‘crouzeix-raviart'' 要素とハイブリダライズされた高階(hho)メソッドへの構成の一般化を示す。
関連論文リスト
- New advances in universal approximation with neural networks of minimal width [4.424170214926035]
リークReLUアクティベーションを持つオートエンコーダは$Lp$関数の普遍近似器であることを示す。
我々は,滑らかな可逆ニューラルネットワークが$Lp(mathbbRd,mathbbRd)$をコンパクト化できることを示す。
論文 参考訳(メタデータ) (2024-11-13T16:17:16Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Exponential Expressivity of ReLU$^k$ Neural Networks on Gevrey Classes with Point Singularities [0.0]
ソボレフ空間における指数的エミュレーション率をニューロン数の観点から証明する。
形状規則的で単純なポリトープ領域の分割は$mathrmD$で、ニューロンの数と非ゼロパラメータの数は、有限要素空間の自由度数に比例する。
論文 参考訳(メタデータ) (2024-03-04T13:39:22Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Polynomial Width is Sufficient for Set Representation with
High-dimensional Features [69.65698500919869]
DeepSetsは集合表現のための最も広く使われているニューラルネットワークアーキテクチャである。
a) 線形 + パワーアクティベーション (LP) と (b) 線形 + 指数的アクティベーション (LE) の2つの集合要素埋め込み層を示す。
論文 参考訳(メタデータ) (2023-07-08T16:00:59Z) - Quantum and classical low-degree learning via a dimension-free Remez
inequality [52.12931955662553]
ハイパーグリッド上の関数をポリトーラス上の高調波拡張に関連付ける新しい方法を示す。
巡回群 $exp(2pi i k/K)_k=1K$ の積に対して函数の上限が$f$であることを示す。
我々は最近、超キューブやキュービット上の観測可能な観測値の低次学習を、同様に効率的に行う方法として、EI22, CHP, VZ22を引用して、新しい空間に拡張した。
論文 参考訳(メタデータ) (2023-01-04T04:15:40Z) - Average-Case Complexity of Tensor Decomposition for Low-Degree
Polynomials [93.59919600451487]
多くの統計的推論タスクにおいて「統計計算ギャップ」が発生する。
1つの成分が他の成分よりもわずかに大きいランダムオーダー3分解モデルを考える。
テンソルエントリは$ll n3/2$のとき最大成分を正確に推定できるが、$rgg n3/2$のとき失敗する。
論文 参考訳(メタデータ) (2022-11-10T00:40:37Z) - Neural Networks Efficiently Learn Low-Dimensional Representations with
SGD [22.703825902761405]
SGDで訓練されたReLU NNは、主方向を回復することで、$y=f(langleboldsymbolu,boldsymbolxrangle) + epsilon$という形の単一インデックスターゲットを学習できることを示す。
また、SGDによる近似低ランク構造を用いて、NNに対して圧縮保証を提供する。
論文 参考訳(メタデータ) (2022-09-29T15:29:10Z) - Neural Network Approximation of Continuous Functions in High Dimensions
with Applications to Inverse Problems [6.84380898679299]
現在の理論では、ネットワークは問題の次元で指数関数的にスケールすべきだと予測されている。
ニューラルネットワークがH"より古い(あるいは一様)連続関数を近似するのに要する複雑性を境界付ける一般的な方法を提案する。
論文 参考訳(メタデータ) (2022-08-28T22:44:07Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Exponential ReLU Neural Network Approximation Rates for Point and Edge
Singularities [0.0]
ポリトープ領域の重み付け解析関数クラスに対して,安定なReLUニューラルネット(ReLU NN)を$H1(Omega)$で表現する。
指数近似速度は、直線面を持つリプシッツ多角形の空間次元$d = 2$、平面面を持つフィチェラ型多面体領域における空間次元$d=3$で表される。
論文 参考訳(メタデータ) (2020-10-23T07:44:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。