論文の概要: A hybrid MGA-MSGD ANN training approach for approximate solution of
linear elliptic PDEs
- arxiv url: http://arxiv.org/abs/2012.11517v1
- Date: Fri, 18 Dec 2020 10:59:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 00:14:30.560063
- Title: A hybrid MGA-MSGD ANN training approach for approximate solution of
linear elliptic PDEs
- Title(参考訳): 線形楕円型PDEの近似解に対するハイブリッドMGA-MSGD ANNトレーニング手法
- Authors: Hamidreza Dehghani and Andreas Zilian
- Abstract要約: MGA-MSGD(Modified Genetic-Multilevel Gradient Descent)トレーニングアルゴリズムを導入しました。
ANNによるPDEによって記述された3次元機械的問題の精度と効率を大幅に改善する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a hybrid "Modified Genetic Algorithm-Multilevel Stochastic
Gradient Descent" (MGA-MSGD) training algorithm that considerably improves
accuracy and efficiency of solving 3D mechanical problems described, in
strong-form, by PDEs via ANNs (Artificial Neural Networks). This presented
approach allows the selection of a number of locations of interest at which the
state variables are expected to fulfil the governing equations associated with
a physical problem. Unlike classical PDE approximation methods such as finite
differences or the finite element method, there is no need to establish and
reconstruct the physical field quantity throughout the computational domain in
order to predict the mechanical response at specific locations of interest. The
basic idea of MGA-MSGD is the manipulation of the learnable parameters'
components responsible for the error explosion so that we can train the network
with relatively larger learning rates which avoids trapping in local minima.
The proposed training approach is less sensitive to the learning rate value,
training points density and distribution, and the random initial parameters.
The distance function to minimise is where we introduce the PDEs including any
physical laws and conditions (so-called, Physics Informed ANN). The Genetic
algorithm is modified to be suitable for this type of ANN in which a
Coarse-level Stochastic Gradient Descent (CSGD) is exploited to make the
decision of the offspring qualification. Employing the presented approach, a
considerable improvement in both accuracy and efficiency, compared with
standard training algorithms such as classical SGD and Adam optimiser, is
observed. The local displacement accuracy is studied and ensured by introducing
the results of Finite Element Method (FEM) at sufficiently fine mesh as the
reference displacements. A slightly more complex problem is solved ensuring its
feasibility.
- Abstract(参考訳): 本稿では,psd(artificial neural networks)によるpdesによる3次元機械的問題解決の精度と効率を大幅に向上させる"modified genetic algorithm-multilevel stochastic gradient descent"(mga-msgd)訓練アルゴリズムを提案する。
このアプローチにより、状態変数が物理問題に関連する制御方程式を満たすと期待される多くの関心の場所を選択することができる。
有限差分法や有限要素法のような古典的なPDE近似法とは異なり、特定の場所における機械的応答を予測するために、計算領域全体にわたる物理場量の確立と再構成は不要である。
MGA-MSGDの基本的な考え方は、学習可能なパラメータのコンポーネントがエラーの爆発の原因となり、ローカルなミニマのトラップを避けるために、比較的大きな学習率でネットワークを訓練できるようにすることである。
提案手法は,学習速度値,学習点密度と分布,およびランダムな初期パラメータにはあまり敏感ではない。
最小化のための距離関数は、物理法則や条件を含むPDEを導入する(いわゆる物理インフォームドANN)。
遺伝的アルゴリズムは、粗レベル確率勾配降下(csgd)を利用して子孫資格を決定するこのタイプのアンに適合するように修正されている。
提案手法を用いることで,従来のSGDやAdam optimiserなどの標準トレーニングアルゴリズムと比較して,精度と効率の両面で大幅な改善が見られた。
有限要素法 (FEM) の結果を基準変位として十分に微細なメッシュに導入することにより, 局所変位精度を検討した。
もう少し複雑な問題は、その実現可能性を保証するために解決される。
関連論文リスト
- A mixed formulation for physics-informed neural networks as a potential
solver for engineering problems in heterogeneous domains: comparison with
finite element method [0.0]
物理インフォームドニューラルネットワーク(PINN)は、与えられた境界値問題の解を見つけることができる。
工学的問題における既存のPINNの性能を高めるために,有限要素法(FEM)からいくつかのアイデアを取り入れた。
論文 参考訳(メタデータ) (2022-06-27T08:18:08Z) - LordNet: Learning to Solve Parametric Partial Differential Equations
without Simulated Data [63.55861160124684]
本稿では,離散化されたPDEによって構築された平均2乗残差(MSR)損失から,ニューラルネットワークが直接物理を学習する一般データ自由パラダイムを提案する。
具体的には,低ランク分解ネットワーク(LordNet)を提案する。
Poisson方程式とNavier-Stokes方程式を解く実験は、MSR損失による物理的制約がニューラルネットワークの精度と能力を向上させることを実証している。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Physics-constrained Unsupervised Learning of Partial Differential
Equations using Meshes [1.066048003460524]
グラフニューラルネットワークは、不規則にメッシュ化されたオブジェクトを正確に表現し、それらのダイナミクスを学ぶことを約束する。
本研究では、メッシュをグラフとして自然に表現し、グラフネットワークを用いてそれらを処理し、物理に基づく損失を定式化し、偏微分方程式(PDE)の教師なし学習フレームワークを提供する。
本フレームワークは, ソフトボディ変形のモデルベース制御など, PDEソルバをインタラクティブな設定に適用する。
論文 参考訳(メタデータ) (2022-03-30T19:22:56Z) - Message Passing Neural PDE Solvers [60.77761603258397]
偏微分方程式(PDE)の数値解は困難であり、これまでの1世紀にわたる研究に繋がった。
近年、ニューラルネットワークと数値のハイブリッド・ソルバの構築が推進されており、これは現代のエンドツーエンドの学習システムへのトレンドを後押ししている。
この研究では、すべてのコンポーネントがニューラルメッセージパッシングに基づいて、これらの特性を満たす解決器を構築します。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Physics and Equality Constrained Artificial Neural Networks: Application
to Partial Differential Equations [1.370633147306388]
偏微分方程式(PDE)の解を学ぶために物理インフォームドニューラルネットワーク(PINN)が提案されている。
本稿では,この目的関数の定式化方法が,PINNアプローチにおける厳密な制約の源であることを示す。
本稿では,逆問題と前方問題の両方に対処可能な多目的フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-30T05:55:35Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - Local AdaGrad-Type Algorithm for Stochastic Convex-Concave Minimax
Problems [80.46370778277186]
大規模凸凹型ミニマックス問題は、ゲーム理論、堅牢なトレーニング、生成的敵ネットワークのトレーニングなど、多くの応用で発生する。
通信効率のよい分散外グレードアルゴリズムであるLocalAdaSientを開発した。
サーバモデル。
等質な環境と異質な環境の両方において,その有効性を実証する。
論文 参考訳(メタデータ) (2021-06-18T09:42:05Z) - Influence Estimation and Maximization via Neural Mean-Field Dynamics [60.91291234832546]
本稿では,ニューラル平均場(NMF)ダイナミクスを用いた新しい学習フレームワークを提案する。
我々のフレームワークは拡散ネットワークの構造とノード感染確率の進化を同時に学習することができる。
論文 参考訳(メタデータ) (2021-06-03T00:02:05Z) - Local approximate Gaussian process regression for data-driven
constitutive laws: Development and comparison with neural networks [0.0]
局所近似過程回帰を用いて特定のひずみ空間における応力出力を予測する方法を示す。
FE設定におけるグローバル構造問題を解決する場合のlaGPR近似の局所的性質に適応するために、修正されたニュートン・ラフソン手法が提案される。
論文 参考訳(メタデータ) (2021-05-07T14:49:28Z) - Efficient training of physics-informed neural networks via importance
sampling [2.9005223064604078]
Physics-In Neural Networks(PINN)は、偏微分方程式(PDE)によって制御されるシステムを計算するために訓練されているディープニューラルネットワークのクラスである。
重要サンプリング手法により,PINN訓練の収束挙動が改善されることが示唆された。
論文 参考訳(メタデータ) (2021-04-26T02:45:10Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。