論文の概要: Automatic stabilization of finite-element simulations using neural
networks and hierarchical matrices
- arxiv url: http://arxiv.org/abs/2212.12695v1
- Date: Sat, 24 Dec 2022 09:20:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 15:44:23.322842
- Title: Automatic stabilization of finite-element simulations using neural
networks and hierarchical matrices
- Title(参考訳): ニューラルネットワークと階層行列を用いた有限要素シミュレーションの自動安定化
- Authors: Tomasz Sluzalec, Mateusz Dobija, Anna Paszynska, Ignacio Muga, Maciej
Paszynski
- Abstract要約: 最適なテスト関数を持つペトロフ・ガレルキンの定式化は有限要素シミュレーションの安定化を可能にする。
低ランク近似を用いて最適試験関数の係数の行列を圧縮する。
このプロセスを加速するために、ニューラルネットワークをトレーニングし、圧縮アルゴリズムの重要なボトルネックを学習する。
- 参考スコア(独自算出の注目度): 0.3149883354098941
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Petrov-Galerkin formulations with optimal test functions allow for the
stabilization of finite element simulations. In particular, given a discrete
trial space, the optimal test space induces a numerical scheme delivering the
best approximation in terms of a problem-dependent energy norm. This ideal
approach has two shortcomings: first, we need to explicitly know the set of
optimal test functions; and second, the optimal test functions may have large
supports inducing expensive dense linear systems. Nevertheless, parametric
families of PDEs are an example where it is worth investing some (offline)
computational effort to obtain stabilized linear systems that can be solved
efficiently, for a given set of parameters, in an online stage. Therefore, as a
remedy for the first shortcoming, we explicitly compute (offline) a function
mapping any PDE-parameter, to the matrix of coefficients of optimal test
functions (in a basis expansion) associated with that PDE-parameter. Next, as a
remedy for the second shortcoming, we use the low-rank approximation to
hierarchically compress the (non-square) matrix of coefficients of optimal test
functions. In order to accelerate this process, we train a neural network to
learn a critical bottleneck of the compression algorithm (for a given set of
PDE-parameters). When solving online the resulting (compressed) Petrov-Galerkin
formulation, we employ a GMRES iterative solver with inexpensive matrix-vector
multiplications thanks to the low-rank features of the compressed matrix. We
perform experiments showing that the full online procedure as fast as the
original (unstable) Galerkin approach. In other words, we get the stabilization
with hierarchical matrices and neural networks practically for free. We
illustrate our findings by means of 2D Eriksson-Johnson and Hemholtz model
problems.
- Abstract(参考訳): 最適テスト関数を持つペトロフ・ガレルキン定式化は有限要素シミュレーションの安定化を可能にする。
特に、離散的な試行空間が与えられた場合、最適試験空間は問題依存エネルギーノルムの観点で最高の近似を与える数値スキームを誘導する。
第一に、我々は最適なテスト関数の集合を明示的に知る必要があり、第二に、最適なテスト関数は高価な高密度線形系を誘導する大きなサポートを持っているかもしれない。
それにもかかわらず、pdesのパラメトリック族は、オンラインステージで与えられたパラメータのセットに対して効率的に解くことができる安定化線形システムを得るために(オフラインで)計算努力を投資する価値がある例である。
したがって、最初の欠点に対する対策として、任意のPDEパラメータを、そのPDEパラメータに関連する最適テスト関数(基底展開)の係数の行列にマッピングする関数を明示的に(オフライン)計算する。
次に、第2の欠点の修正として、最適テスト関数の係数の(二乗でない)行列を階層的に圧縮するために低ランク近似を用いる。
このプロセスを加速するために、ニューラルネットワークをトレーニングし、圧縮アルゴリズム(与えられたPDEパラメータ集合)の重要なボトルネックを学習する。
計算結果(圧縮)petrov-galerkin定式化をオンラインで解く際,圧縮行列の低ランク特徴により,安価な行列ベクトル乗算を伴うgmres反復解法を用いる。
我々は、元の(不安定な)galerkinアプローチと同じくらい早く、完全なオンライン手順を示す実験を行う。
言い換えれば、階層行列とニューラルネットワークによる安定化は、事実上無料で得られる。
2d eriksson-johnson および hemholtz モデル問題を用いてこの知見を明らかにした。
関連論文リスト
- A Natural Primal-Dual Hybrid Gradient Method for Adversarial Neural Network Training on Solving Partial Differential Equations [9.588717577573684]
偏微分方程式(PDE)を解くためのスケーラブルな事前条件付き原始ハイブリッド勾配アルゴリズムを提案する。
本稿では,提案手法の性能を,一般的なディープラーニングアルゴリズムと比較する。
その結果,提案手法は効率的かつ堅牢に動作し,安定に収束することが示唆された。
論文 参考訳(メタデータ) (2024-11-09T20:39:10Z) - Stochastic First-Order Methods with Non-smooth and Non-Euclidean Proximal Terms for Nonconvex High-Dimensional Stochastic Optimization [2.0657831823662574]
非問題が非問題である場合、一階法のサンプルは問題次元に線形に依存することがあるが、望ましくない問題に対するものである。
我々のアルゴリズムは距離を使って複雑さを見積もることができる。
MathO (log d) / EuM4。
DISFOM は $mathO (log d) / EuM4 を用いて分散を鋭くすることができることを示す。
論文 参考訳(メタデータ) (2024-06-27T18:38:42Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - On the Identification and Optimization of Nonsmooth Superposition
Operators in Semilinear Elliptic PDEs [3.045851438458641]
原型半線形楕円偏微分方程式(PDE)の非線形部分におけるネミトスキー作用素の同定を目的とした無限次元最適化問題について検討する。
以前の研究とは対照的に、ネミトスキー作用素を誘導する関数が a-priori であることは、$H leakyloc(mathbbR)$ の要素であることが知られている。
論文 参考訳(メタデータ) (2023-06-08T13:33:20Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - Stochastic Inexact Augmented Lagrangian Method for Nonconvex Expectation
Constrained Optimization [88.0031283949404]
多くの実世界の問題は複雑な非機能的制約を持ち、多くのデータポイントを使用する。
提案手法は,従来最もよく知られた結果で既存手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-19T14:48:54Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - On the Efficient Implementation of the Matrix Exponentiated Gradient
Algorithm for Low-Rank Matrix Optimization [26.858608065417663]
スペクトル上の凸最適化は、機械学習、信号処理、統計学に重要な応用がある。
低ランク行列による最適化に適したMEGの効率的な実装を提案し、各イテレーションで単一の低ランクSVDのみを使用する。
また,本手法の正しい収束のための効率よく計算可能な証明書も提供する。
論文 参考訳(メタデータ) (2020-12-18T19:14:51Z) - Bayesian Sparse learning with preconditioned stochastic gradient MCMC
and its applications [5.660384137948734]
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束する。
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束可能であることを示す。
論文 参考訳(メタデータ) (2020-06-29T20:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。