論文の概要: Stacked tensorial neural networks for reduced-order modeling of a
parametric partial differential equation
- arxiv url: http://arxiv.org/abs/2312.14979v1
- Date: Thu, 21 Dec 2023 21:44:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-31 03:15:19.928544
- Title: Stacked tensorial neural networks for reduced-order modeling of a
parametric partial differential equation
- Title(参考訳): パラメトリック偏微分方程式の低次モデリングのための重ね合わせテンソルニューラルネットワーク
- Authors: Caleb G. Wagner
- Abstract要約: 複数のTNNを大きなネットワークに融合させるディープニューラルネットワークアーキテクチャについて説明する。
このアーキテクチャを、3つの独立変数と3つのパラメータを持つパラメトリックPDE上で評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensorial neural networks (TNNs) combine the successes of multilinear algebra
with those of deep learning to enable extremely efficient reduced-order models
of high-dimensional problems. Here, I describe a deep neural network
architecture that fuses multiple TNNs into a larger network, intended to solve
a broader class of problems than a single TNN. I evaluate this architecture,
referred to as a "stacked tensorial neural network" (STNN), on a parametric PDE
with three independent variables and three parameters. The three parameters
correspond to one PDE coefficient and two quantities describing the domain
geometry. The STNN provides an accurate reduced-order description of the
solution manifold over a wide range of parameters. There is also evidence of
meaningful generalization to parameter values outside its training data.
Finally, while the STNN architecture is relatively simple and problem agnostic,
it can be regularized to incorporate problem-specific features like symmetries
and physical modeling assumptions.
- Abstract(参考訳): TNN(Tensorial Neural Network)は、多線型代数とディープラーニングの成功を組み合わせることで、高次元問題の極めて効率的な低次モデルを実現する。
ここでは、複数のTNNを大きなネットワークに融合させるディープニューラルネットワークアーキテクチャを説明します。
このアーキテクチャを評価し、"stacked tensorial neural network"(stnn)と呼び、3つの独立変数と3つのパラメータを持つパラメトリックpde上で評価します。
3つのパラメータは1つのPDE係数とドメイン幾何学を記述する2つの量に対応する。
STNNは、幅広いパラメーターにわたる解多様体の正確な低次記述を提供する。
また、トレーニングデータ以外のパラメータ値に対する有意義な一般化の証拠もある。
最後に、STNNアーキテクチャは比較的単純で問題に依存しないが、対称性や物理モデリングの仮定のような問題固有の機能を組み込むように規則化することができる。
関連論文リスト
- RBF-MGN:Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [4.425915683879297]
グラフニューラルネットワーク(GNN)とラジアル基底関数有限差分(RBF-FD)に基づく新しいフレームワークを提案する。
RBF-FDはモデルトレーニングを導くために微分方程式の高精度差分形式を構築するために用いられる。
提案アルゴリズムの一般化可能性,精度,効率性を,異なるPDEパラメータで説明する。
論文 参考訳(メタデータ) (2022-12-06T10:08:02Z) - MRF-PINN: A Multi-Receptive-Field convolutional physics-informed neural
network for solving partial differential equations [6.285167805465505]
物理インフォームドニューラルネットワーク(PINN)は、従来の偏微分方程式(PDE)の解法よりも開発コストと解決コストを低減できる。
パラメータ共有、空間的特徴抽出、低推論コストの利点により、畳み込みニューラルネットワーク(CNN)はPINNでますます利用されている。
論文 参考訳(メタデータ) (2022-09-06T12:26:22Z) - Sparse Deep Neural Network for Nonlinear Partial Differential Equations [3.0069322256338906]
本稿では,非線形偏微分方程式の解の適応近似に関する数値的研究について述べる。
特定の特異点を持つ関数を表現するために、複数のパラメータを持つスパース正規化を備えたディープニューラルネットワーク(DNN)を開発する。
数値的な例では、提案したSDNNが生成する解はスパースで正確である。
論文 参考訳(メタデータ) (2022-07-27T03:12:16Z) - LordNet: Learning to Solve Parametric Partial Differential Equations
without Simulated Data [63.55861160124684]
本稿では,離散化されたPDEによって構築された平均2乗残差(MSR)損失から,ニューラルネットワークが直接物理を学習する一般データ自由パラダイムを提案する。
具体的には,低ランク分解ネットワーク(LordNet)を提案する。
Poisson方程式とNavier-Stokes方程式を解く実験は、MSR損失による物理的制約がニューラルネットワークの精度と能力を向上させることを実証している。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Subspace Decomposition based DNN algorithm for elliptic-type multi-scale
PDEs [19.500646313633446]
サブスペース分解に基づくDNN(dubed SD$2$NN)アーキテクチャを,マルチスケールな問題に対して構築する。
SD$2$NNモデルに新しい三角運動関数が組み込まれている。
SD$2$NNモデルはMscaleDNNのような既存のモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-12-10T08:26:27Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - 1-Dimensional polynomial neural networks for audio signal related
problems [3.867363075280544]
提案モデルでは,1DCNNよりも少ない時間と少ないメモリで,より関連性の高い情報を抽出できることを示す。
この非線形性により、音声信号に関する様々な分類や回帰問題において、通常の1DCNNよりも計算量や空間的複雑さの少ないモデルが得られることを示す。
論文 参考訳(メタデータ) (2020-09-09T02:29:53Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。