論文の概要: De Rham compatible Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2201.05395v1
- Date: Fri, 14 Jan 2022 11:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-17 15:28:47.832093
- Title: De Rham compatible Deep Neural Networks
- Title(参考訳): de rham互換のディープニューラルネットワーク
- Authors: Marcello Longo, Joost A. A. Opschoor, Nico Disch, Christoph Schwab,
Jakob Zech
- Abstract要約: 我々は、ReLUとBi Step Unitをアクティベートしたニューラルネットワークのクラスを複数構築する。
有限およびポリヘドラの正則、単純分割上の最小次要素空間(FE)をエミュレートする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We construct several classes of neural networks with ReLU and BiSU (Binary
Step Unit) activations, which exactly emulate the lowest order Finite Element
(FE) spaces on regular, simplicial partitions of polygonal and polyhedral
domains $\Omega \subset \mathbb{R}^d$, $d=2,3$. For continuous, piecewise
linear (CPwL) functions, our constructions generalize previous results in that
arbitrary, regular simplicial partitions of $\Omega$ are admitted, also in
arbitrary dimension $d\geq 2$.
Vector-valued elements emulated include the classical Raviart-Thomas and the
first family of N\'{e}d\'{e}lec edge elements on triangles and tetrahedra.
Neural Networks emulating these FE spaces are required in the correct
approximation of boundary value problems of electromagnetism in nonconvex
polyhedra $\Omega \subset \mathbb{R}^3$, thereby constituting an essential
ingredient in the application of e.g. the methodology of ``physics-informed
NNs'' or ``deep Ritz methods'' to electromagnetic field simulation via deep
learning techniques. They satisfy exact (De Rham) sequence properties, and also
spawn discrete boundary complexes on $\partial\Omega$ which satisfy exact
sequence properties for the surface divergence and curl operators
$\mathrm{div}_\Gamma$ and $\mathrm{curl}_\Gamma$, respectively, thereby
enabling ``neural boundary elements'' for computational electromagnetism.
We indicate generalizations of our constructions to higher-order compatible
spaces and other, non-compatible classes of discretizations in particular the
Crouzeix-Raviart elements and Hybridized, Higher Order (HHO) methods.
- Abstract(参考訳): ReLU と BiSU (Binary Step Unit) をアクティベートしたいくつかのニューラルネットワークのクラスを構築し、これは正則な多角形および多面体領域の単純分割上の有限要素(FE)空間を正確にエミュレートする。
連続的、ピースワイズ線型(CPwL)函数に対して、我々の構成は以前の結果を一般化して、$\Omega$ の任意の正則な単純分割が、任意の次元 $d\geq 2$ で認められる。
ベクトル値要素のエミュレートには、古典的なラヴィアート=トーマスと、三角形とテトラヘドラ上の N'{e}d\'{e}lec エッジ要素の最初のファミリーが含まれる。
これらのfe空間をエミュレートするニューラルネットワークは、非凸ポリヘドラ $\omega \subset \mathbb{r}^3$ における電磁気学の境界値問題の正しい近似において必要であり、例えば ‘physics-informed nns'' や ‘deep ritz method’ の方法論を深層学習技術による電磁場シミュレーションに適用する上で必須の要素となる。
それらはそれぞれ正確な (De Rham) 列の性質を満足し、また、曲面の発散に対する正確な列の性質を満たす$\partial\Omega$ と、計算電磁界に対する '' 境界要素' を可能にする$\mathrm{div}_\Gamma$ と$\mathrm{curl}_\Gamma$ のそれぞれを満たす離散境界錯体を生成する。
我々は、高階互換空間や、特にクローゼックス・ラヴィアート元とハイブリダイド・ハイア・オーダー(HHO)法における非互換な離散化のクラスへの我々の構成の一般化を示す。
関連論文リスト
- New advances in universal approximation with neural networks of minimal width [4.424170214926035]
リークReLUアクティベーションを持つオートエンコーダは$Lp$関数の普遍近似器であることを示す。
我々は,滑らかな可逆ニューラルネットワークが$Lp(mathbbRd,mathbbRd)$をコンパクト化できることを示す。
論文 参考訳(メタデータ) (2024-11-13T16:17:16Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Exponential Expressivity of ReLU$^k$ Neural Networks on Gevrey Classes with Point Singularities [0.0]
ソボレフ空間における指数的エミュレーション率をニューロン数の観点から証明する。
形状規則的で単純なポリトープ領域の分割は$mathrmD$で、ニューロンの数と非ゼロパラメータの数は、有限要素空間の自由度数に比例する。
論文 参考訳(メタデータ) (2024-03-04T13:39:22Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Polynomial Width is Sufficient for Set Representation with
High-dimensional Features [69.65698500919869]
DeepSetsは集合表現のための最も広く使われているニューラルネットワークアーキテクチャである。
a) 線形 + パワーアクティベーション (LP) と (b) 線形 + 指数的アクティベーション (LE) の2つの集合要素埋め込み層を示す。
論文 参考訳(メタデータ) (2023-07-08T16:00:59Z) - Quantum and classical low-degree learning via a dimension-free Remez
inequality [52.12931955662553]
ハイパーグリッド上の関数をポリトーラス上の高調波拡張に関連付ける新しい方法を示す。
巡回群 $exp(2pi i k/K)_k=1K$ の積に対して函数の上限が$f$であることを示す。
我々は最近、超キューブやキュービット上の観測可能な観測値の低次学習を、同様に効率的に行う方法として、EI22, CHP, VZ22を引用して、新しい空間に拡張した。
論文 参考訳(メタデータ) (2023-01-04T04:15:40Z) - Average-Case Complexity of Tensor Decomposition for Low-Degree
Polynomials [93.59919600451487]
多くの統計的推論タスクにおいて「統計計算ギャップ」が発生する。
1つの成分が他の成分よりもわずかに大きいランダムオーダー3分解モデルを考える。
テンソルエントリは$ll n3/2$のとき最大成分を正確に推定できるが、$rgg n3/2$のとき失敗する。
論文 参考訳(メタデータ) (2022-11-10T00:40:37Z) - Neural Networks Efficiently Learn Low-Dimensional Representations with
SGD [22.703825902761405]
SGDで訓練されたReLU NNは、主方向を回復することで、$y=f(langleboldsymbolu,boldsymbolxrangle) + epsilon$という形の単一インデックスターゲットを学習できることを示す。
また、SGDによる近似低ランク構造を用いて、NNに対して圧縮保証を提供する。
論文 参考訳(メタデータ) (2022-09-29T15:29:10Z) - Neural Network Approximation of Continuous Functions in High Dimensions
with Applications to Inverse Problems [6.84380898679299]
現在の理論では、ネットワークは問題の次元で指数関数的にスケールすべきだと予測されている。
ニューラルネットワークがH"より古い(あるいは一様)連続関数を近似するのに要する複雑性を境界付ける一般的な方法を提案する。
論文 参考訳(メタデータ) (2022-08-28T22:44:07Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Exponential ReLU Neural Network Approximation Rates for Point and Edge
Singularities [0.0]
ポリトープ領域の重み付け解析関数クラスに対して,安定なReLUニューラルネット(ReLU NN)を$H1(Omega)$で表現する。
指数近似速度は、直線面を持つリプシッツ多角形の空間次元$d = 2$、平面面を持つフィチェラ型多面体領域における空間次元$d=3$で表される。
論文 参考訳(メタデータ) (2020-10-23T07:44:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。