論文の概要: Adaptive neural domain refinement for solving time-dependent
differential equations
- arxiv url: http://arxiv.org/abs/2112.12517v2
- Date: Thu, 1 Sep 2022 05:58:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 18:01:31.815514
- Title: Adaptive neural domain refinement for solving time-dependent
differential equations
- Title(参考訳): 時間依存微分方程式の解法に対する適応的ニューラルネットワーク領域の改良
- Authors: Toni Schneidereit and Michael Breu{\ss}
- Abstract要約: ニューラルネットワークを用いた微分方程式の古典的な解法は、解領域の離散化を伴う微分方程式を用いるニューラルネットワーク形式に基づいている。
このような重要かつ成功した戦略を、ニューラルネットワークベースのソリューションの分野に移行することが望ましい。
本稿では,時間依存問題の解決を目的とした新しい適応型ニューラルアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A classic approach for solving differential equations with neural networks
builds upon neural forms, which employ the differential equation with a
discretisation of the solution domain. Making use of neural forms for
time-dependent differential equations, one can apply the recently developed
method of domain fragmentation. That is, the domain may be split into several
subdomains, on which the optimisation problem is solved. In classic adaptive
numerical methods, the mesh as well as the domain may be refined or decomposed,
respectively, in order to improve accuracy. Also the degree of approximation
accuracy may be adapted. It would be desirable to transfer such important and
successful strategies to the field of neural network based solutions. In the
present work, we propose a novel adaptive neural approach to meet this aim for
solving time-dependent problems. To this end, each subdomain is reduced in size
until the optimisation is resolved up to a predefined training accuracy. In
addition, while the neural networks employed are by default small, we propose a
means to adjust also the number of neurons in an adaptive way. We introduce
conditions to automatically confirm the solution reliability and optimise
computational parameters whenever it is necessary. Results are provided for
several initial value problems that illustrate important computational
properties of the method alongside. In total, our approach not only allows to
analyse in high detail the relation between network error and numerical
accuracy. The new approach also allows reliable neural network solutions over
large computational domains.
- Abstract(参考訳): ニューラルネットワークで微分方程式を解く古典的なアプローチは、解領域の離散化を伴う微分方程式を用いるニューラルネットワークに基づいている。
時間依存微分方程式にニューラルフォームを用いることで、最近開発されたドメインフラグメンテーション法を適用できる。
すなわち、ドメインはいくつかのサブドメインに分割され、最適化問題が解決される。
古典的な適応的数値法では、メッシュと領域をそれぞれ洗練または分解して精度を向上させることができる。
また、近似精度の程度も適応できる。
このような重要かつ成功した戦略をニューラルネットワークベースのソリューションの分野に移行することが望ましい。
本研究では,時間依存問題の解決を目的とした適応型ニューラルアプローチを提案する。
これにより、最適化が予め定義されたトレーニング精度まで解決されるまで、各サブドメインのサイズを小さくする。
さらに、ニューラルネットワークはデフォルトでは小さいが、適応的な方法でニューロンの数を調整する手段を提案する。
解の信頼性を自動的に確認し,必要であれば計算パラメータを最適化するための条件を導入する。
その結果,本手法の重要な計算特性を示すいくつかの初期値問題が得られた。
提案手法は,ネットワークエラーと数値的精度の関係を詳細に解析するだけでなく,解析を行う。
新しいアプローチでは、大規模な計算領域における信頼性の高いニューラルネットワークソリューションも実現している。
関連論文リスト
- A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - A comparison of rational and neural network based approximations [0.0]
有理近似,ニューラルネットワークおよびそれらの組み合わせを用いた関数近似の効率を比較する。
その結果、有理近似は、同じ数の決定変数を持つニューラルネットワークベースのアプローチよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-08T08:31:06Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Acceleration techniques for optimization over trained neural network
ensembles [1.0323063834827415]
本研究では, 線形単位活性化の補正されたフィードフォワードニューラルネットワークを用いて, 目的関数をモデル化する最適化問題について検討する。
本稿では,1つのニューラルネットワークを最適化するために,既存のBig-M$の定式化をベースとした混合整数線形プログラムを提案する。
論文 参考訳(メタデータ) (2021-12-13T20:50:54Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Collocation Polynomial Neural Forms and Domain Fragmentation for solving
Initial Value Problems [0.0]
微分方程式を解くためのいくつかのニューラルネットワークアプローチは、フィードフォワードニューラルネットワークを用いた試行的な解を用いている。
時間に依存した初期値の問題について検討し、ニューラルネットワークの枠組みを適切に設定する必要がある。
より高階のコロケーションニューラルフォームとドメインフラグメンテーションを組み合わせることで,大規模ドメインに対する初期値問題を高精度かつ信頼性で解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-29T08:19:26Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Computational characteristics of feedforward neural networks for solving
a stiff differential equation [0.0]
減衰系をモデル化する単純だが基本的な常微分方程式の解について検討する。
パラメータやメソッドに対して好適な選択を特定できることを示す。
全体として、ニューラルネットワークアプローチによる信頼性と正確な結果を得るために何ができるかを示すことで、この分野の現在の文献を拡張します。
論文 参考訳(メタデータ) (2020-12-03T12:22:24Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z) - ODEN: A Framework to Solve Ordinary Differential Equations using
Artificial Neural Networks [0.0]
我々は、ニューラルネットワークの性能を評価するために、正確な解の知識を必要としない特定の損失関数を証明した。
ニューラルネットワークは、トレーニング領域内での継続的ソリューションの近似に熟練していることが示されている。
ユーザフレンドリで適応可能なオープンソースコード(ODE$mathcalN$)がGitHubで提供されている。
論文 参考訳(メタデータ) (2020-05-28T15:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。