論文の概要: Learning Nonlinear Finite Element Solution Operators using Multilayer Perceptrons and Energy Minimization
- arxiv url: http://arxiv.org/abs/2412.04596v2
- Date: Tue, 08 Jul 2025 19:01:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 15:30:51.96059
- Title: Learning Nonlinear Finite Element Solution Operators using Multilayer Perceptrons and Energy Minimization
- Title(参考訳): 多層パーセプトロンとエネルギー最小化を用いた非線形有限要素解演算子の学習
- Authors: Mats G. Larson, Carl Lundholm, Anna Persson,
- Abstract要約: 偏微分方程式(PDE)による非線形問題に対する解演算子学習法を開発し,評価する。
アプローチは有限要素の離散化に基づいており、多層パーセプトロン(MLP)による解演算子を表現することを目的としている。
我々は,各要素に局所的にエネルギーを組み立てることに基づいて,効率的な並列化可能な学習アルゴリズムを定式化する。
- 参考スコア(独自算出の注目度): 0.5898893619901381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop and evaluate a method for learning solution operators to nonlinear problems governed by partial differential equations (PDEs). The approach is based on a finite element discretization and aims at representing the solution operator by a multilayer perceptron (MLP) that takes problem data variables as input and gives a prediction of the finite element solution as output. The variables will typically correspond to parameters in a parametrization of input data such as boundary conditions, coefficients, and right-hand sides. The output will be an approximation of the corresponding finite element solution, thus enabling support and enhancement by the standard finite element method (FEM) both theoretically and practically. The loss function is most often an energy functional and we formulate efficient parallelizable training algorithms based on assembling the energy locally on each element. For large problems, the learning process can be made more efficient by using only a small fraction of randomly chosen elements in the mesh in each iteration. The approach is evaluated on several relevant test cases, where learning the finite element solution operator turns out to be beneficial, both in its own right but also by combination with standard FEM theory and software.
- Abstract(参考訳): 偏微分方程式(PDE)に支配される非線形問題に対する解演算子学習法を開発し,評価する。
この手法は有限要素の離散化に基づいており、問題データ変数を入力とし、有限要素解を出力として予測する多層パーセプトロン(MLP)によって解演算子を表現することを目的としている。
変数は通常、境界条件、係数、右辺などの入力データのパラメトリゼーションのパラメータに対応する。
出力は対応する有限要素解の近似であり、理論上も実用上も標準有限要素法(FEM)の支持と強化を可能にする。
損失関数はエネルギー汎関数であり、各要素にエネルギーを局所的に組み立てることに基づいて効率よく並列化可能な訓練アルゴリズムを定式化する。
大きな問題に対して、各イテレーションでメッシュ内でランダムに選択された要素のごく一部を使用することで、学習プロセスをより効率的にすることができる。
このアプローチはいくつかの関連するテストケースで評価され、有限要素解作用素の学習は、それ自体が正しいだけでなく、標準FEM理論やソフトウェアと組み合わせることで有益であることが判明した。
関連論文リスト
- Finite Operator Learning: Bridging Neural Operators and Numerical Methods for Efficient Parametric Solution and Optimization of PDEs [0.0]
本稿では,ニューラルネットワーク,物理情報処理機械学習,およびPDEを解くための標準的な数値法を組み合わせた手法を提案する。
データのない方法で偏微分方程式をパラメトリックに解き、正確な感度を与えることができる。
本研究では, 不均一材料中の定常熱方程式に着目した。
論文 参考訳(メタデータ) (2024-07-04T21:23:12Z) - Annealing-based approach to solving partial differential equations [0.0]
PDE の離散化は線形方程式の系をもたらす。
一般的な固有値問題は最適化問題に変換することができる。
提案アルゴリズムは反復計算を必要とする。
論文 参考訳(メタデータ) (2024-06-25T08:30:00Z) - Transformers as Neural Operators for Solutions of Differential Equations with Finite Regularity [1.6874375111244329]
まず、変換器が演算子学習モデルとして普遍近似特性を持つ理論基盤を確立する。
特に, Izhikevich ニューロンモデル, 分数次 Leaky Integrate-and-Fire (LIFLIF) モデル, 1次元方程式 Euler の3つの例を考える。
論文 参考訳(メタデータ) (2024-05-29T15:10:24Z) - PICL: Physics Informed Contrastive Learning for Partial Differential Equations [7.136205674624813]
我々は,複数の支配方程式にまたがるニューラル演算子一般化を同時に改善する,新しいコントラスト事前学習フレームワークを開発する。
物理インフォームドシステムの進化と潜在空間モデル出力の組み合わせは、入力データに固定され、我々の距離関数で使用される。
物理インフォームドコントラストプレトレーニングにより,1次元および2次元熱,バーガーズ,線形対流方程式に対する固定フューチャーおよび自己回帰ロールアウトタスクにおけるフーリエニューラル演算子の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - Symbolic Recovery of Differential Equations: The Identifiability Problem [52.158782751264205]
微分方程式の記号的回復は、支配方程式の導出を自動化する野心的な試みである。
関数が対応する微分方程式を一意に決定するために必要な条件と十分な条件の両方を提供する。
この結果を用いて、関数が微分方程式を一意に解くかどうかを判定する数値アルゴリズムを考案する。
論文 参考訳(メタデータ) (2022-10-15T17:32:49Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Automated differential equation solver based on the parametric
approximation optimization [77.34726150561087]
本稿では,最適化アルゴリズムを用いてパラメータ化近似を用いた解を求める手法を提案する。
アルゴリズムのパラメータを変更することなく、幅広い種類の方程式を自動で解くことができる。
論文 参考訳(メタデータ) (2022-05-11T10:06:47Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Computational characteristics of feedforward neural networks for solving
a stiff differential equation [0.0]
減衰系をモデル化する単純だが基本的な常微分方程式の解について検討する。
パラメータやメソッドに対して好適な選択を特定できることを示す。
全体として、ニューラルネットワークアプローチによる信頼性と正確な結果を得るために何ができるかを示すことで、この分野の現在の文献を拡張します。
論文 参考訳(メタデータ) (2020-12-03T12:22:24Z) - Logistic Q-Learning [87.00813469969167]
MDPにおける最適制御の正規化線形プログラミング定式化から導いた新しい強化学習アルゴリズムを提案する。
提案アルゴリズムの主な特徴は,広範に使用されているベルマン誤差の代わりとして理論的に音声として機能する,政策評価のための凸損失関数である。
論文 参考訳(メタデータ) (2020-10-21T17:14:31Z) - Learning with Differentiable Perturbed Optimizers [54.351317101356614]
本稿では,操作を微分可能で局所的に一定ではない操作に変換する手法を提案する。
提案手法は摂動に依拠し,既存の解法とともに容易に利用することができる。
本稿では,この枠組みが,構造化予測において発達した損失の族とどのように結びつくかを示し,学習課題におけるそれらの使用に関する理論的保証を与える。
論文 参考訳(メタデータ) (2020-02-20T11:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。