論文の概要: Collocation Polynomial Neural Forms and Domain Fragmentation for solving
Initial Value Problems
- arxiv url: http://arxiv.org/abs/2103.15413v2
- Date: Tue, 30 Nov 2021 14:00:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 06:18:40.232312
- Title: Collocation Polynomial Neural Forms and Domain Fragmentation for solving
Initial Value Problems
- Title(参考訳): 初期値問題に対するコロケーション多項式ニューラルフォームと領域フラグメンテーション
- Authors: Toni Schneidereit and Michael Breu{\ss}
- Abstract要約: 微分方程式を解くためのいくつかのニューラルネットワークアプローチは、フィードフォワードニューラルネットワークを用いた試行的な解を用いている。
時間に依存した初期値の問題について検討し、ニューラルネットワークの枠組みを適切に設定する必要がある。
より高階のコロケーションニューラルフォームとドメインフラグメンテーションを組み合わせることで,大規模ドメインに対する初期値問題を高精度かつ信頼性で解くことができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several neural network approaches for solving differential equations employ
trial solutions with a feedforward neural network. There are different means to
incorporate the trial solution in the construction, for instance one may
include them directly in the cost function. Used within the corresponding
neural network, the trial solutions define the so-called neural form. Such
neural forms represent general, flexible tools by which one may solve various
differential equations. In this article we consider time-dependent initial
value problems, which require to set up the neural form framework adequately.
The neural forms presented up to now in the literature for such a setting can
be considered as first order polynomials. In this work we propose to extend the
polynomial order of the neural forms. The novel collocation-type construction
includes several feedforward neural networks, one for each order. Additionally,
we propose the fragmentation of the computational domain into subdomains. The
neural forms are solved on each subdomain, whereas the interfacing grid points
overlap in order to provide initial values over the whole fragmentation. We
illustrate in experiments that the combination of collocation neural forms of
higher order and the domain fragmentation allows to solve initial value
problems over large domains with high accuracy and reliability.
- Abstract(参考訳): 微分方程式を解くためのいくつかのニューラルネットワークアプローチは、フィードフォワードニューラルネットワークを用いた試行解を用いる。
例えば、コスト関数に直接組み込むなど、建設にトライアルソリューションを組み込む別の方法がある。
対応するニューラルネットワーク内で使用される試用ソリューションは、いわゆるニューラルフォームを定義する。
このようなニューラル形式は、様々な微分方程式を解くことができる一般的な柔軟なツールを表す。
本稿では,ニューラルフォームフレームワークを適切に設定する必要がある時間依存の初期値問題について考察する。
このような設定の文献にこれまでに提示された神経形態は、一階多項式と見なすことができる。
本研究では,ニューラルフォームの多項式次数を拡張することを提案する。
新規なコロケーション型構造は、複数のフィードフォワードニューラルネットワークを含む。
さらに,計算領域のサブドメインへの断片化を提案する。
神経形態は各サブドメインで解かれ、対向するグリッドポイントは断片化全体に対して初期値を提供するために重なり合う。
本研究では,高い順序の結合ニューラルフォームとドメインフラグメンテーションの組み合わせにより,高い精度と信頼性で大規模領域における初期値問題を解くことができることを示す。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Zonotope Domains for Lagrangian Neural Network Verification [102.13346781220383]
我々は、ディープニューラルネットワークを多くの2層ニューラルネットワークの検証に分解する。
我々の手法は線形プログラミングとラグランジアンに基づく検証技術の両方により改善された境界を与える。
論文 参考訳(メタデータ) (2022-10-14T19:31:39Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Adaptive neural domain refinement for solving time-dependent
differential equations [0.0]
ニューラルネットワークを用いた微分方程式の古典的な解法は、解領域の離散化を伴う微分方程式を用いるニューラルネットワーク形式に基づいている。
このような重要かつ成功した戦略を、ニューラルネットワークベースのソリューションの分野に移行することが望ましい。
本稿では,時間依存問題の解決を目的とした新しい適応型ニューラルアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-23T13:19:07Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Computational characteristics of feedforward neural networks for solving
a stiff differential equation [0.0]
減衰系をモデル化する単純だが基本的な常微分方程式の解について検討する。
パラメータやメソッドに対して好適な選択を特定できることを示す。
全体として、ニューラルネットワークアプローチによる信頼性と正確な結果を得るために何ができるかを示すことで、この分野の現在の文献を拡張します。
論文 参考訳(メタデータ) (2020-12-03T12:22:24Z) - Neural Network Approximations of Compositional Functions With
Applications to Dynamical Systems [3.660098145214465]
我々は,合成関数とそのニューラルネットワーク近似の近似理論を開発した。
構成関数の重要な特徴の集合と,ニューラルネットワークの特徴と複雑性の関係を同定する。
関数近似に加えて、ニューラルネットワークの誤差上限の式もいくつか証明する。
論文 参考訳(メタデータ) (2020-12-03T04:40:25Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - ODEN: A Framework to Solve Ordinary Differential Equations using
Artificial Neural Networks [0.0]
我々は、ニューラルネットワークの性能を評価するために、正確な解の知識を必要としない特定の損失関数を証明した。
ニューラルネットワークは、トレーニング領域内での継続的ソリューションの近似に熟練していることが示されている。
ユーザフレンドリで適応可能なオープンソースコード(ODE$mathcalN$)がGitHubで提供されている。
論文 参考訳(メタデータ) (2020-05-28T15:34:10Z) - Mean-Field and Kinetic Descriptions of Neural Differential Equations [0.0]
この研究では、ニューラルネットワークの特定のクラス、すなわち残留ニューラルネットワークに焦点を当てる。
我々は、ネットワークのパラメータ、すなわち重みとバイアスに関する定常状態と感度を分析する。
残留ニューラルネットワークにインスパイアされた微視的ダイナミクスの修正は、ネットワークのフォッカー・プランクの定式化につながる。
論文 参考訳(メタデータ) (2020-01-07T13:41:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。