論文の概要: Deep Neural Networks and Finite Elements of Any Order on Arbitrary
Dimensions
- arxiv url: http://arxiv.org/abs/2312.14276v3
- Date: Thu, 11 Jan 2024 21:01:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 23:38:53.853675
- Title: Deep Neural Networks and Finite Elements of Any Order on Arbitrary
Dimensions
- Title(参考訳): 任意次元上の任意の順序のディープニューラルネットワークと有限要素
- Authors: Juncai He, Jinchao Xu
- Abstract要約: ReLUとReLU$2$の活性化関数を用いたディープニューラルネットワークは、任意の次元の様々な単純メッシュ上の任意の順序のラグランジュ有限要素関数を効果的に表現することができる。
我々の研究は、ディープニューラルネットワークが特定のまたは任意の単純化メッシュ上で、汎用的な連続的な関数を体系的に生成する方法を示す最初のデモンストレーションである。
- 参考スコア(独自算出の注目度): 2.7195102129095003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we establish that deep neural networks employing ReLU and
ReLU$^2$ activation functions can effectively represent Lagrange finite element
functions of any order on various simplicial meshes in arbitrary dimensions. We
introduce two novel formulations for globally expressing the basis functions of
Lagrange elements, tailored for both specific and arbitrary meshes. These
formulations are based on a geometric decomposition of the elements,
incorporating several insightful and essential properties of high-dimensional
simplicial meshes, barycentric coordinate functions, and global basis functions
of linear elements. This representation theory facilitates a natural
approximation result for such deep neural networks. Our findings present the
first demonstration of how deep neural networks can systematically generate
general continuous piecewise polynomial functions on both specific or arbitrary
simplicial meshes.
- Abstract(参考訳): 本研究では,reluおよびrelu$^2$アクティベーション関数を用いたディープニューラルネットワークが,任意の次元の様々な単純メッシュ上の任意の順序のラグランジュ有限要素関数を効果的に表現できることを示す。
本稿では,ラグランジュ要素の基底関数をグローバルに表現するための2つの新しい定式化について紹介する。
これらの定式化はこれらの要素の幾何学的分解に基づいており、高次元のsimplicial meshの洞察と本質的な性質、偏心座標関数、線形要素の大域基底関数を取り入れている。
この表現理論は、そのようなディープニューラルネットワークの自然な近似結果を促進する。
本研究は,ニューラルネットワークが,特定のメッシュ,あるいは任意のメッシュ上で,一般連続的な多項式関数を体系的に生成できることを示す最初の例である。
関連論文リスト
- Shallow ReLU neural networks and finite elements [1.3597551064547502]
凸ポリトープメッシュ上の一方向線形関数は、弱い意味で2層ReLUニューラルネットワークで表現できることを示す。
弱い表現に必要な2つの隠れた層のニューロンの数は、このメッシュに関わるポリトープと超平面の数に基づいて正確に与えられる。
論文 参考訳(メタデータ) (2024-03-09T06:12:06Z) - Structure of universal formulas [13.794391803767617]
本稿では,大域近似特性と無限VC次元の弱い性質を結合するクラス階層を導入する。
活性化するニューロンの層が1つ以上ある固定サイズニューラルネットワークは任意の有限集合上の関数を近似できないことを示す。
任意の有限集合上の関数を近似する2層ニューラルネットワークを含む関数族を例に挙げるが、定義領域全体においてそれを行うことができない。
論文 参考訳(メタデータ) (2023-11-07T11:50:25Z) - Exploring Linear Feature Disentanglement For Neural Networks [63.20827189693117]
Sigmoid、ReLU、Tanhなどの非線形活性化関数は、ニューラルネットワーク(NN)において大きな成功を収めた。
サンプルの複雑な非線形特性のため、これらの活性化関数の目的は、元の特徴空間から線形分離可能な特徴空間へサンプルを投影することである。
この現象は、現在の典型的なNNにおいて、すべての特徴がすべての非線形関数によって変換される必要があるかどうかを探求することに興味をそそる。
論文 参考訳(メタデータ) (2022-03-22T13:09:17Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Geometry of Linear Convolutional Networks [7.990816079551592]
線形畳み込みニューラルネットワーク(LCN)で表される関数群について検討する。
LCN上の目的関数の最適化について検討し,関数空間および勾配空間における臨界点を解析した。
全体として、LCNの最適化されたパラメータは、しばしば層をまたいだ繰り返しフィルタに対応すると予測する。
論文 参考訳(メタデータ) (2021-08-03T14:42:18Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - Principled Simplicial Neural Networks for Trajectory Prediction [17.016397531234393]
単純複素体上のデータに対するニューラルネットワークアーキテクチャの構築を検討する。
これらの特性に基づいて,軌道予測問題に対する単純な畳み込みアーキテクチャを提案する。
非線形アクティベーション関数を用いた場合,これら3つの特性をすべて従うことを示す。
論文 参考訳(メタデータ) (2021-02-19T17:37:43Z) - On the Number of Linear Functions Composing Deep Neural Network: Towards
a Refined Definition of Neural Networks Complexity [6.252236971703546]
分割線型関数を構成する線形関数間の同値関係を導入し、その同値関係に対してそれらの線形関数を数える。
我々の新しい複雑性測度は、2つのモデルを明確に区別することができ、古典的測度と整合し、指数関数的に深さに比例して増加する。
論文 参考訳(メタデータ) (2020-10-23T01:46:12Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Invariant Feature Coding using Tensor Product Representation [75.62232699377877]
我々は,群不変特徴ベクトルが線形分類器を学習する際に十分な識別情報を含んでいることを証明した。
主成分分析やk平均クラスタリングにおいて,グループアクションを明示的に考慮する新たな特徴モデルを提案する。
論文 参考訳(メタデータ) (2019-06-05T07:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。