論文の概要: Local error quantification for Neural Network Differential Equation
solvers
- arxiv url: http://arxiv.org/abs/2008.12190v3
- Date: Thu, 28 Jan 2021 09:44:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 12:43:30.015012
- Title: Local error quantification for Neural Network Differential Equation
solvers
- Title(参考訳): ニューラルネットワーク微分方程式解法における局所誤差定量化
- Authors: Akshunna S. Dogra, William T Redman
- Abstract要約: NN DEソルバをより正確かつ効率的にする手法を開発した。
本手法は,NNDEの精度の高い予測誤差をポイントワイズで推定する手法によって実現される。
非線形システムとカオスシステムでテストすることで,本手法の有用性を実証する。
- 参考スコア(独自算出の注目度): 6.09170287691728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have been identified as powerful tools for the study of
complex systems. A noteworthy example is the neural network differential
equation (NN DE) solver, which can provide functional approximations to the
solutions of a wide variety of differential equations. Such solvers produce
robust functional expressions, are well suited for further manipulations on the
quantities of interest (for example, taking derivatives), and capable of
leveraging the modern advances in parallelization and computing power. However,
there is a lack of work on the role precise error quantification can play in
their predictions: usually, the focus is on ambiguous and/or global measures of
performance like the loss function and/or obtaining global bounds on the errors
associated with the predictions. Precise, local error quantification is seldom
possible without external means or outright knowledge of the true solution. We
address these concerns in the context of dynamical system NN DE solvers,
leveraging learnt information within the NN DE solvers to develop methods that
allow them to be more accurate and efficient, while still pursuing an
unsupervised approach that does not rely on external tools or data. We achieve
this via methods that can precisely estimate NN DE solver prediction errors
point-wise, thus allowing the user the capacity for efficient and targeted
error correction. We exemplify the utility of our methods by testing them on a
nonlinear and a chaotic system each.
- Abstract(参考訳): ニューラルネットワークは複雑なシステムの研究のための強力なツールとして認識されている。
注目すべき例として、ニューラルネットワーク微分方程式(NN DE)の解法があり、様々な微分方程式の解に関数近似を与えることができる。
このような解法はロバストな関数表現を生成し、興味の量(例えば微分を取るなど)のさらなる操作に適しており、並列化と計算能力の現代的進歩を活用することができる。
しかし、その予測において正確な誤差定量化が果たす役割についての研究は乏しく、通常、損失関数のような不明瞭でグローバルな性能測定や、その予測に関連するエラーのグローバルな境界の獲得に焦点が当てられている。
正確な局所誤差定量化は、外部の手段や真の解の完全な知識がなければ不可能である。
我々は、これらの懸念を動的システムnn deソルバの文脈で解決し、nn deソルバ内の学習情報を活用して、より正確で効率的な方法を開発しながら、外部のツールやデータに依存しない教師なしのアプローチを追求する。
本手法は,NNDEの精度の高い予測誤差をポイントワイズで推定する手法により実現し,ユーザが効率よく目標となる誤り訂正を行うことができる。
非線形系とカオス系をそれぞれテストすることにより,提案手法の有用性を実証する。
関連論文リスト
- Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - A new approach to generalisation error of machine learning algorithms:
Estimates and convergence [0.0]
本稿では,(一般化)誤差の推定と収束に対する新しいアプローチを提案する。
本研究の結果は,ニューラルネットワークの構造的仮定を伴わない誤差の推定を含む。
論文 参考訳(メタデータ) (2023-06-23T20:57:31Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Multigoal-oriented dual-weighted-residual error estimation using deep
neural networks [0.0]
ディープラーニングは、関数を近似する柔軟性の高い強力なツールだと考えられている。
提案手法は,誤差の局所化に付随する問題を解く後続誤差推定法に基づく。
複数のゴール関数に対する後方誤差推定を得るために,効率的で実装が容易なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-12-21T16:59:44Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Neural Network Approximations of Compositional Functions With
Applications to Dynamical Systems [3.660098145214465]
我々は,合成関数とそのニューラルネットワーク近似の近似理論を開発した。
構成関数の重要な特徴の集合と,ニューラルネットワークの特徴と複雑性の関係を同定する。
関数近似に加えて、ニューラルネットワークの誤差上限の式もいくつか証明する。
論文 参考訳(メタデータ) (2020-12-03T04:40:25Z) - Error Estimation and Correction from within Neural Network Differential
Equation Solvers [3.04585143845864]
本稿では,ニューラルネットワーク微分方程式解法における誤差推定と補正の戦略について述べる。
提案手法では, 真の解の事前知識を必要とせず, 損失関数と解推定に伴う誤差との明確な関係を求める。
論文 参考訳(メタデータ) (2020-07-09T11:01:44Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。