論文の概要: Generalization Error Guaranteed Auto-Encoder-Based Nonlinear Model
Reduction for Operator Learning
- arxiv url: http://arxiv.org/abs/2401.10490v1
- Date: Fri, 19 Jan 2024 05:01:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 16:56:05.436662
- Title: Generalization Error Guaranteed Auto-Encoder-Based Nonlinear Model
Reduction for Operator Learning
- Title(参考訳): 演算子学習のための一般化誤り保証オートエンコーダに基づく非線形モデル削減
- Authors: Hao Liu, Biraj Dahal, Rongjie Lai, Wenjing Liao
- Abstract要約: 本稿では,オートエンコーダベースニューラルネットワーク(AENet)によるモデル縮小における低次元非線形構造の利用について述べる。
数値実験により,非線形偏微分方程式の解演算子を正確に学習する能力について検証した。
我々の理論的枠組みは、AENetのトレーニングのサンプルの複雑さが、モデル化されたプロセスの本質的な次元と複雑に結びついていることを示している。
- 参考スコア(独自算出の注目度): 12.124206935054389
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many physical processes in science and engineering are naturally represented
by operators between infinite-dimensional function spaces. The problem of
operator learning, in this context, seeks to extract these physical processes
from empirical data, which is challenging due to the infinite or high
dimensionality of data. An integral component in addressing this challenge is
model reduction, which reduces both the data dimensionality and problem size.
In this paper, we utilize low-dimensional nonlinear structures in model
reduction by investigating Auto-Encoder-based Neural Network (AENet). AENet
first learns the latent variables of the input data and then learns the
transformation from these latent variables to corresponding output data. Our
numerical experiments validate the ability of AENet to accurately learn the
solution operator of nonlinear partial differential equations. Furthermore, we
establish a mathematical and statistical estimation theory that analyzes the
generalization error of AENet. Our theoretical framework shows that the sample
complexity of training AENet is intricately tied to the intrinsic dimension of
the modeled process, while also demonstrating the remarkable resilience of
AENet to noise.
- Abstract(参考訳): 科学と工学における多くの物理過程は自然に無限次元函数空間の間の作用素によって表される。
この文脈での演算子学習の問題は、データの無限次元あるいは高次元性のために困難である経験的データからこれらの物理過程を抽出することを目指している。
この課題に対処する重要な要素は、データ次元と問題サイズの両方を削減するモデル縮小である。
本稿では,オートエンコーダベースニューラルネットワーク(AENet)を用いて,モデル縮小における低次元非線形構造を利用する。
AENetはまず入力データの潜伏変数を学び、次にこれらの潜伏変数から対応する出力データへの変換を学ぶ。
数値実験により,非線形偏微分方程式の解演算子を正確に学習する能力について検証した。
さらに,AENetの一般化誤差を分析する数学的・統計的推定理論を確立する。
我々の理論的な枠組みは、aenetのトレーニングのサンプル複雑性が、モデル化プロセスの固有次元と複雑に結びついていると同時に、aenetのノイズに対する顕著な弾力性も示している。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Hybrid data-driven and physics-informed regularized learning of cyclic
plasticity with Neural Networks [0.0]
提案したモデルアーキテクチャは、既存の文献のソリューションに比べてシンプルで効率的である。
この手法の検証はアームストロング・フレデリックのキネマティック・ハードニング・モデルを用いて得られたサロゲートデータを用いて行う。
論文 参考訳(メタデータ) (2024-03-04T07:09:54Z) - Peridynamic Neural Operators: A Data-Driven Nonlocal Constitutive Model
for Complex Material Responses [12.454290779121383]
本研究では,データから非局所法則を学習するPNO(Peridynamic Neural Operator)と呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
このニューラル作用素は、客観性と運動量バランス法則が自動的に保証される状態ベースペリダイナミックスという形でフォワードモデルを提供する。
複雑な応答をキャプチャする能力により、学習したニューラル演算子はベースラインモデルと比較して精度と効率が向上することを示した。
論文 参考訳(メタデータ) (2024-01-11T17:37:20Z) - Discovering Interpretable Physical Models using Symbolic Regression and
Discrete Exterior Calculus [55.2480439325792]
本稿では,記号回帰(SR)と離散指数計算(DEC)を組み合わせて物理モデルの自動発見を行うフレームワークを提案する。
DECは、SRの物理問題への最先端の応用を越えている、場の理論の離散的な類似に対して、ビルディングブロックを提供する。
実験データから連続体物理の3つのモデルを再発見し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-10-10T13:23:05Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - On Robust Numerical Solver for ODE via Self-Attention Mechanism [82.95493796476767]
我々は,内在性雑音障害を緩和し,AIによって強化された数値解法を,データサイズを小さくする訓練について検討する。
まず,教師付き学習における雑音を制御するための自己認識機構の能力を解析し,さらに微分方程式の数値解に付加的な自己認識機構を導入し,簡便かつ有効な数値解法であるAttrを提案する。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - INO: Invariant Neural Operators for Learning Complex Physical Systems
with Momentum Conservation [8.218875461185016]
基本保存法則が自動的に保証される物理モデルを学ぶために,新しい統合ニューラル演算子アーキテクチャを導入する。
応用例として、合成データセットと実験データセットの両方から複雑な物質挙動を学習する際のモデルの有効性と有効性を示す。
論文 参考訳(メタデータ) (2022-12-29T16:40:41Z) - Physics-guided Data Augmentation for Learning the Solution Operator of
Linear Differential Equations [2.1850269949775663]
ニューラルネットワークモデルの精度と一般化を改善するために,物理誘導型データ拡張法(PGDA)を提案する。
様々な線形微分方程式におけるPGDAの利点を実証し、PGDAがサンプルの複雑さを向上し、分布シフトに頑健であることを示す。
論文 参考訳(メタデータ) (2022-12-08T06:29:15Z) - Learning Deep Implicit Fourier Neural Operators (IFNOs) with
Applications to Heterogeneous Material Modeling [3.9181541460605116]
本稿では,従来のモデルを用いることなく,データ駆動モデルを用いて素材の応答を予測することを提案する。
材料応答は、負荷条件と結果の変位および/または損傷場の暗黙のマッピングを学習することによってモデル化される。
本稿では,超弾性材料,異方性材料,脆性材料など,いくつかの例について提案手法の性能を実証する。
論文 参考訳(メタデータ) (2022-03-15T19:08:13Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。