論文の概要: Corrector Operator to Enhance Accuracy and Reliability of Neural
Operator Surrogates of Nonlinear Variational Boundary-Value Problems
- arxiv url: http://arxiv.org/abs/2306.12047v1
- Date: Wed, 21 Jun 2023 06:30:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 14:48:37.257529
- Title: Corrector Operator to Enhance Accuracy and Reliability of Neural
Operator Surrogates of Nonlinear Variational Boundary-Value Problems
- Title(参考訳): 非線形変分境界値問題のニューラルネットワークサロゲートの精度と信頼性を高める補正演算子
- Authors: Prashant K. Jha and J. Tinsley Oden
- Abstract要約: この研究は、ニューラル作用素を介してパラメトリック偏微分方程式のクラスの解作用素を近似する手法の開発に焦点をあてる。
ニューラルネットワークの精度の予測不可能さは、推論、最適化、制御の下流問題における彼らの応用に影響を与える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work focuses on developing methods for approximating the solution
operators of a class of parametric partial differential equations via neural
operators. Neural operators have several challenges, including the issue of
generating appropriate training data, cost-accuracy trade-offs, and nontrivial
hyperparameter tuning. The unpredictability of the accuracy of neural operators
impacts their applications in downstream problems of inference, optimization,
and control. A framework is proposed based on the linear variational problem
that gives the correction to the prediction furnished by neural operators. The
operator associated with the corrector problem is referred to as the corrector
operator. Numerical results involving a nonlinear diffusion model in two
dimensions with PCANet-type neural operators show almost two orders of increase
in the accuracy of approximations when neural operators are corrected using the
proposed scheme. Further, topology optimization involving a nonlinear diffusion
model is considered to highlight the limitations of neural operators and the
efficacy of the correction scheme. Optimizers with neural operator surrogates
are seen to make significant errors (as high as 80 percent). However, the
errors are much lower (below 7 percent) when neural operators are corrected
following the proposed method.
- Abstract(参考訳): この研究は、ニューラル作用素を介してパラメトリック偏微分方程式のクラスの解作用素を近似する手法の開発に焦点をあてる。
ニューラルネットワークには、適切なトレーニングデータの生成、コスト精度のトレードオフ、非自明なハイパーパラメータチューニングなど、いくつかの課題がある。
ニューラル演算子の精度の予測不可能性は、推論、最適化、制御といった下流問題のアプリケーションに影響を及ぼす。
ニューラルネットワークによって提供された予測を補正する線形変分問題に基づく枠組みを提案する。
修正子問題に関連する演算子は修正子演算子と呼ばれる。
pcanet型ニューラル演算子を用いた2次元の非線形拡散モデルを用いた数値実験では,提案手法により近似精度が約2桁向上することを示した。
さらに、非線形拡散モデルを含むトポロジー最適化は、ニューラル演算子の限界と補正スキームの有効性を強調していると考えられる。
神経オペレーターサロゲートによる最適化は、重大なエラー(最大80%)を発生させる。
しかし、ニューラルネットワークが提案手法に従って修正されると、エラーはずっと少なく(7%以下)なる。
関連論文リスト
- Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - Improved Operator Learning by Orthogonal Attention [18.661908694473773]
我々は、カーネル積分作用素の固有分解と固有関数のニューラル近似に基づいて注意を喚起する。
我々の手法は、競合するベースラインを十分なマージンで上回ることができる。
論文 参考訳(メタデータ) (2023-10-19T05:47:28Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - Physics-guided Data Augmentation for Learning the Solution Operator of
Linear Differential Equations [2.1850269949775663]
ニューラルネットワークモデルの精度と一般化を改善するために,物理誘導型データ拡張法(PGDA)を提案する。
様々な線形微分方程式におけるPGDAの利点を実証し、PGDAがサンプルの複雑さを向上し、分布シフトに頑健であることを示す。
論文 参考訳(メタデータ) (2022-12-08T06:29:15Z) - Residual-based error correction for neural operator accelerated
infinite-dimensional Bayesian inverse problems [3.2548794659022393]
関数空間間の非線形写像のニューラルネットワーク表現を用いて無限次元ベイズ逆問題を高速化する。
誤差補正の訓練されたニューラル演算子が近似誤差を2次的に低減できることを示す。
トレーニングされたニューラル演算子を用いて生成された2つのBIPの後方表現は、誤り訂正によって大きく、一貫して拡張されていることを示す。
論文 参考訳(メタデータ) (2022-10-06T15:57:22Z) - Approximate Bayesian Neural Operators: Uncertainty Quantification for
Parametric PDEs [34.179984253109346]
ニューラル作用素の'hallow'(線形)バージョンを数学的に詳細に定式化する。
次に、ベイズ深層学習の近似手法を用いて、この解析処理を一般のディープニューラル演算子に拡張する。
その結果, ニューラル演算子の予測に失敗するケースを同定し, 構造的不確実性推定を行うことができた。
論文 参考訳(メタデータ) (2022-08-02T16:10:27Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Relaxing the Constraints on Predictive Coding Models [62.997667081978825]
予測符号化(英: Predictive coding)は、脳が行う主計算が予測誤差の最小化であるとする皮質機能の影響力のある理論である。
アルゴリズムの標準的な実装は、同じ前方と後方の重み、後方の非線形微分、1-1エラーユニット接続といった、潜在的に神経的に予測できない特徴を含んでいる。
本稿では,これらの特徴はアルゴリズムに不可欠なものではなく,Hebbianの更新ルールを用いてパラメータセットを直接あるいは学習することで,学習性能に悪影響を及ぼすことなく除去可能であることを示す。
論文 参考訳(メタデータ) (2020-10-02T15:21:37Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z) - Understanding and Mitigating the Tradeoff Between Robustness and
Accuracy [88.51943635427709]
逆行訓練は、堅牢なエラーを改善するために、摂動でトレーニングセットを増強する。
拡張摂動が最適線形予測器からノイズのない観測を行う場合であっても,標準誤差は増大する可能性がある。
論文 参考訳(メタデータ) (2020-02-25T08:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。