論文の概要: Stacked tensorial neural networks for reduced-order modeling of a
parametric partial differential equation
- arxiv url: http://arxiv.org/abs/2312.14979v1
- Date: Thu, 21 Dec 2023 21:44:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-31 03:15:19.928544
- Title: Stacked tensorial neural networks for reduced-order modeling of a
parametric partial differential equation
- Title(参考訳): パラメトリック偏微分方程式の低次モデリングのための重ね合わせテンソルニューラルネットワーク
- Authors: Caleb G. Wagner
- Abstract要約: 複数のTNNを大きなネットワークに融合させるディープニューラルネットワークアーキテクチャについて説明する。
このアーキテクチャを、3つの独立変数と3つのパラメータを持つパラメトリックPDE上で評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensorial neural networks (TNNs) combine the successes of multilinear algebra
with those of deep learning to enable extremely efficient reduced-order models
of high-dimensional problems. Here, I describe a deep neural network
architecture that fuses multiple TNNs into a larger network, intended to solve
a broader class of problems than a single TNN. I evaluate this architecture,
referred to as a "stacked tensorial neural network" (STNN), on a parametric PDE
with three independent variables and three parameters. The three parameters
correspond to one PDE coefficient and two quantities describing the domain
geometry. The STNN provides an accurate reduced-order description of the
solution manifold over a wide range of parameters. There is also evidence of
meaningful generalization to parameter values outside its training data.
Finally, while the STNN architecture is relatively simple and problem agnostic,
it can be regularized to incorporate problem-specific features like symmetries
and physical modeling assumptions.
- Abstract(参考訳): TNN(Tensorial Neural Network)は、多線型代数とディープラーニングの成功を組み合わせることで、高次元問題の極めて効率的な低次モデルを実現する。
ここでは、複数のTNNを大きなネットワークに融合させるディープニューラルネットワークアーキテクチャを説明します。
このアーキテクチャを評価し、"stacked tensorial neural network"(stnn)と呼び、3つの独立変数と3つのパラメータを持つパラメトリックpde上で評価します。
3つのパラメータは1つのPDE係数とドメイン幾何学を記述する2つの量に対応する。
STNNは、幅広いパラメーターにわたる解多様体の正確な低次記述を提供する。
また、トレーニングデータ以外のパラメータ値に対する有意義な一般化の証拠もある。
最後に、STNNアーキテクチャは比較的単純で問題に依存しないが、対称性や物理モデリングの仮定のような問題固有の機能を組み込むように規則化することができる。
関連論文リスト
- Multilevel CNNs for Parametric PDEs based on Adaptive Finite Elements [0.0]
高次元パラメータ依存偏微分方程式の多値性を利用するニューラルネットワークアーキテクチャが提案されている。
ネットワークは適応的に洗練された有限要素メッシュのデータで訓練される。
適応型マルチレベルスキームに対して完全収束と複雑性解析を行う。
論文 参考訳(メタデータ) (2024-08-20T13:32:11Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - MRF-PINN: A Multi-Receptive-Field convolutional physics-informed neural
network for solving partial differential equations [6.285167805465505]
物理インフォームドニューラルネットワーク(PINN)は、従来の偏微分方程式(PDE)の解法よりも開発コストと解決コストを低減できる。
パラメータ共有、空間的特徴抽出、低推論コストの利点により、畳み込みニューラルネットワーク(CNN)はPINNでますます利用されている。
論文 参考訳(メタデータ) (2022-09-06T12:26:22Z) - Sparse Deep Neural Network for Nonlinear Partial Differential Equations [3.0069322256338906]
本稿では,非線形偏微分方程式の解の適応近似に関する数値的研究について述べる。
特定の特異点を持つ関数を表現するために、複数のパラメータを持つスパース正規化を備えたディープニューラルネットワーク(DNN)を開発する。
数値的な例では、提案したSDNNが生成する解はスパースで正確である。
論文 参考訳(メタデータ) (2022-07-27T03:12:16Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Subspace Decomposition based DNN algorithm for elliptic-type multi-scale
PDEs [19.500646313633446]
サブスペース分解に基づくDNN(dubed SD$2$NN)アーキテクチャを,マルチスケールな問題に対して構築する。
SD$2$NNモデルに新しい三角運動関数が組み込まれている。
SD$2$NNモデルはMscaleDNNのような既存のモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-12-10T08:26:27Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - 1-Dimensional polynomial neural networks for audio signal related
problems [3.867363075280544]
提案モデルでは,1DCNNよりも少ない時間と少ないメモリで,より関連性の高い情報を抽出できることを示す。
この非線形性により、音声信号に関する様々な分類や回帰問題において、通常の1DCNNよりも計算量や空間的複雑さの少ないモデルが得られることを示す。
論文 参考訳(メタデータ) (2020-09-09T02:29:53Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。