論文の概要: Deep neural networks for smooth approximation of physics with higher
order and continuity B-spline base functions
- arxiv url: http://arxiv.org/abs/2201.00904v1
- Date: Mon, 3 Jan 2022 23:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 22:12:48.794639
- Title: Deep neural networks for smooth approximation of physics with higher
order and continuity B-spline base functions
- Title(参考訳): 高次および連続性B-スプライン基底関数を持つ物理学の滑らかな近似のためのディープニューラルネットワーク
- Authors: Kamil Doleg{\l}o, Anna Paszy\'nska, Maciej Paszy\'nski, Leszek
Demkowicz
- Abstract要約: 伝統的に、ニューラルネットワークは、与えられた物理現象を近似するために非線形活性化関数を使用する。
そこで本研究では, 物理量を滑らかなB-スプライン基底関数の線形結合として近似する手法を提案する。
物理場を近似する場合,我々のアプローチはより安価で正確であることを示す。
- 参考スコア(独自算出の注目度): 0.4588028371034407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper deals with the following important research question.
Traditionally, the neural network employs non-linear activation functions
concatenated with linear operators to approximate a given physical phenomenon.
They "fill the space" with the concatenations of the activation functions and
linear operators and adjust their coefficients to approximate the physical
phenomena. We claim that it is better to "fill the space" with linear
combinations of smooth higher-order B-splines base functions as employed by
isogeometric analysis and utilize the neural networks to adjust the
coefficients of linear combinations. In other words, the possibilities of using
neural networks for approximating the B-spline base functions' coefficients and
by approximating the solution directly are evaluated. Solving differential
equations with neural networks has been proposed by Maziar Raissi et al. in
2017 by introducing Physics-informed Neural Networks (PINN), which naturally
encode underlying physical laws as prior information. Approximation of
coefficients using a function as an input leverages the well-known capability
of neural networks being universal function approximators. In essence, in the
PINN approach the network approximates the value of the given field at a given
point. We present an alternative approach, where the physcial quantity is
approximated as a linear combination of smooth B-spline basis functions, and
the neural network approximates the coefficients of B-splines. This research
compares results from the DNN approximating the coefficients of the linear
combination of B-spline basis functions, with the DNN approximating the
solution directly. We show that our approach is cheaper and more accurate when
approximating smooth physical fields.
- Abstract(参考訳): 本稿では,以下の重要な研究課題を扱う。
伝統的に、ニューラルネットワークは、与えられた物理的現象を近似するために線形作用素と連結された非線形活性化関数を用いる。
活性化関数と線形作用素の結合で「空間を満たし」、それらの係数を調整して物理現象を近似する。
我々は, 平滑な高次b-スプライン基本関数の線形結合を等geometric analysisで採用し, ニューラルネットワークを用いて線形結合係数を調整した方がよいと主張する。
言い換えると、b-スプライン基底関数の係数を近似し、解を直接近似するためにニューラルネットワークを使用する可能性を評価する。
ニューラルネットワークを用いた微分方程式の解法は、2017年にMaziar Raissi氏らによって、物理インフォームドニューラルネットワーク(PINN)を導入して提案されている。
関数を入力として使う係数の近似は、普遍関数近似器であるニューラルネットワークのよく知られた能力を利用する。
本質的には、PINNアプローチでは、ネットワークは所定の点における与えられたフィールドの値を近似する。
本稿では,B-スプライン基底関数の線形結合として物理量を近似し,B-スプラインの係数をニューラルネットワークで近似する手法を提案する。
本研究では,B-スプライン基底関数の線形結合係数をDNNで近似し,DNNで直接近似した結果と比較する。
滑らかな物理場を近似する場合、我々のアプローチは安価で正確であることを示します。
関連論文リスト
- Physics-informed neural wavefields with Gabor basis functions [4.07926531936425]
本稿では,ニューラルネットワークのウェーブフィールド解の効率性と精度を高める手法を提案する。
具体的には、ヘルムホルツ方程式に対して、最後の隠れ層を構成するGabor層で完全に連結されたニューラルネットワークモデルを拡張する。
ガボル関数のこれらの/係数は、非線形活性化関数を含む以前の隠れ層から学習される。
論文 参考訳(メタデータ) (2023-10-16T17:30:33Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Do deep neural networks have an inbuilt Occam's razor? [1.1470070927586016]
構造データとOccam's razor-likeインダクティブバイアスが組み合わさった単純な関数に対する構造データは、複雑さを伴う関数の指数的成長に反することを示す。
この分析により、構造データと(コルモゴロフ)単純関数に対するOccam's razor-likeインダクティブバイアスが組み合わさって、複雑さを伴う関数の指数的成長に対抗できるほど強いことがDNNの成功の鍵であることが明らかになった。
論文 参考訳(メタデータ) (2023-04-13T16:58:21Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - Tensor-based framework for training flexible neural networks [9.176056742068813]
本稿では,制約付き行列-テンソル因数分解(CMTF)問題を解く学習アルゴリズムを提案する。
提案アルゴリズムは、異なる基底分解を処理できる。
この手法の目的は、テンソルワーク(例えば、元のネットワークの1層または複数の層)を新しいフレキシブル層に置き換えることで、大きな事前訓練されたNNモデルを圧縮することである。
論文 参考訳(メタデータ) (2021-06-25T10:26:48Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。