論文の概要: Residual-Based Error Corrector Operator to Enhance Accuracy and
Reliability of Neural Operator Surrogates of Nonlinear Variational
Boundary-Value Problems
- arxiv url: http://arxiv.org/abs/2306.12047v3
- Date: Thu, 16 Nov 2023 01:35:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-18 01:04:00.583383
- Title: Residual-Based Error Corrector Operator to Enhance Accuracy and
Reliability of Neural Operator Surrogates of Nonlinear Variational
Boundary-Value Problems
- Title(参考訳): 非線形変動境界値問題のニューラルネットワークサロゲートの精度と信頼性を高める残留型誤差補正演算子
- Authors: Prashant K. Jha
- Abstract要約: この研究は、ニューラル作用素を介してパラメトリック偏微分方程式のクラスの解作用素を近似する手法の開発に焦点をあてる。
ニューラルネットワークの精度の予測不可能さは、推論、最適化、制御の下流問題における彼らの応用に影響を与える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work focuses on developing methods for approximating the solution
operators of a class of parametric partial differential equations via neural
operators. Neural operators have several challenges, including the issue of
generating appropriate training data, cost-accuracy trade-offs, and nontrivial
hyperparameter tuning. The unpredictability of the accuracy of neural operators
impacts their applications in downstream problems of inference, optimization,
and control. A framework based on the linear variational problem that gives the
correction to the prediction furnished by neural operators is considered based
on earlier work in JCP 486 (2023) 112104. The operator, called Residual-based
Error Corrector Operator or simply Corrector Operator, associated with the
corrector problem is analyzed further. Numerical results involving a nonlinear
reaction-diffusion model in two dimensions with PCANet-type neural operators
show almost two orders of increase in the accuracy of approximations when
neural operators are corrected using the correction scheme. Further, topology
optimization involving a nonlinear reaction-diffusion model is considered to
highlight the limitations of neural operators and the efficacy of the
correction scheme. Optimizers with neural operator surrogates are seen to make
significant errors (as high as 80 percent). However, the errors are much lower
(below 7 percent) when neural operators are corrected.
- Abstract(参考訳): この研究は、ニューラル作用素を介してパラメトリック偏微分方程式のクラスの解作用素を近似する手法の開発に焦点をあてる。
ニューラルネットワークには、適切なトレーニングデータの生成、コスト精度のトレードオフ、非自明なハイパーパラメータチューニングなど、いくつかの課題がある。
ニューラル演算子の精度の予測不可能性は、推論、最適化、制御といった下流問題のアプリケーションに影響を及ぼす。
ニューラルネットワークによって提供される予測を補正する線形変分問題に基づくフレームワークは、jcp 486 (2023) 112104の以前の作業に基づいて検討されている。
Residual-based Error Corrector Operator または単に Corrector Operator と呼ばれる演算子はさらに解析を行う。
PCANet型ニューラル演算子を持つ2次元の非線形反応拡散モデルを含む数値計算結果から,ニューラル演算子を補正した際の近似精度がほぼ2桁向上したことを示す。
さらに, 非線形反応拡散モデルを含むトポロジー最適化は, ニューラル演算子の限界と補正方式の有効性を強調していると考えられる。
神経オペレーターサロゲートによる最適化は、重大なエラー(最大80%)を発生させる。
しかし、ニューラルオペレーターが修正されるとエラーはずっと少なく(7%以下)なる。
関連論文リスト
- Improved Operator Learning by Orthogonal Attention [18.661908694473773]
我々は、カーネル積分作用素の固有分解と固有関数のニューラル近似に基づいて注意を喚起する。
我々の手法は、競合するベースラインを十分なマージンで上回ることができる。
論文 参考訳(メタデータ) (2023-10-19T05:47:28Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Physics-guided Data Augmentation for Learning the Solution Operator of
Linear Differential Equations [2.1850269949775663]
ニューラルネットワークモデルの精度と一般化を改善するために,物理誘導型データ拡張法(PGDA)を提案する。
様々な線形微分方程式におけるPGDAの利点を実証し、PGDAがサンプルの複雑さを向上し、分布シフトに頑健であることを示す。
論文 参考訳(メタデータ) (2022-12-08T06:29:15Z) - Residual-based error correction for neural operator accelerated
infinite-dimensional Bayesian inverse problems [3.2548794659022393]
関数空間間の非線形写像のニューラルネットワーク表現を用いて無限次元ベイズ逆問題を高速化する。
誤差補正の訓練されたニューラル演算子が近似誤差を2次的に低減できることを示す。
トレーニングされたニューラル演算子を用いて生成された2つのBIPの後方表現は、誤り訂正によって大きく、一貫して拡張されていることを示す。
論文 参考訳(メタデータ) (2022-10-06T15:57:22Z) - Approximate Bayesian Neural Operators: Uncertainty Quantification for
Parametric PDEs [34.179984253109346]
ニューラル作用素の'hallow'(線形)バージョンを数学的に詳細に定式化する。
次に、ベイズ深層学習の近似手法を用いて、この解析処理を一般のディープニューラル演算子に拡張する。
その結果, ニューラル演算子の予測に失敗するケースを同定し, 構造的不確実性推定を行うことができた。
論文 参考訳(メタデータ) (2022-08-02T16:10:27Z) - Derivative-Informed Neural Operator: An Efficient Framework for
High-Dimensional Parametric Derivative Learning [3.7051887945349518]
微分インフォームド・ニューラル演算子(DINO)を提案する。
DINO は入力関数空間から出力関数空間や興味の量への無限次元写像として近似する。
提案したDINOは,デリバティブ情報なしで訓練したニューラル演算子よりも有意に精度が高いことを示す。
論文 参考訳(メタデータ) (2022-06-21T21:40:01Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Neural Operator: Learning Maps Between Function Spaces [57.90284928158383]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Relaxing the Constraints on Predictive Coding Models [62.997667081978825]
予測符号化(英: Predictive coding)は、脳が行う主計算が予測誤差の最小化であるとする皮質機能の影響力のある理論である。
アルゴリズムの標準的な実装は、同じ前方と後方の重み、後方の非線形微分、1-1エラーユニット接続といった、潜在的に神経的に予測できない特徴を含んでいる。
本稿では,これらの特徴はアルゴリズムに不可欠なものではなく,Hebbianの更新ルールを用いてパラメータセットを直接あるいは学習することで,学習性能に悪影響を及ぼすことなく除去可能であることを示す。
論文 参考訳(メタデータ) (2020-10-02T15:21:37Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z) - Understanding and Mitigating the Tradeoff Between Robustness and
Accuracy [88.51943635427709]
逆行訓練は、堅牢なエラーを改善するために、摂動でトレーニングセットを増強する。
拡張摂動が最適線形予測器からノイズのない観測を行う場合であっても,標準誤差は増大する可能性がある。
論文 参考訳(メタデータ) (2020-02-25T08:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。