論文の概要: Optimized neural forms for solving ordinary differential equations
- arxiv url: http://arxiv.org/abs/2404.19454v1
- Date: Tue, 30 Apr 2024 11:10:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 14:34:58.854510
- Title: Optimized neural forms for solving ordinary differential equations
- Title(参考訳): 常微分方程式を解くための最適化ニューラルフォーム
- Authors: Adam D. Kypriadis, Isaac E. Lagaris, Aristidis Likas, Konstantinos E. Parsopoulos,
- Abstract要約: ニューラルネットワークを用いた常微分方程式の近似解における重要な問題は、境界条件や初期条件の正確な満足度である。
本稿では、最適化されたニューラルフォームを作成するための新しいフォーマリズムを提案する。
また、正確な解から絶対偏差の上限を確立する方法も概説している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A critical issue in approximating solutions of ordinary differential equations using neural networks is the exact satisfaction of the boundary or initial conditions. For this purpose, neural forms have been introduced, i.e., functional expressions that depend on neural networks which, by design, satisfy the prescribed conditions exactly. Expanding upon prior progress, the present work contributes in three distinct aspects. First, it presents a novel formalism for crafting optimized neural forms. Second, it outlines a method for establishing an upper bound on the absolute deviation from the exact solution. Third, it introduces a technique for converting problems with Neumann or Robin conditions into equivalent problems with parametric Dirichlet conditions. The proposed optimized neural forms were numerically tested on a set of diverse problems, encompassing first-order and second-order ordinary differential equations, as well as first-order systems. Stiff and delay differential equations were also considered. The obtained solutions were compared against solutions obtained via Runge-Kutta methods and exact solutions wherever available. The reported results and analysis verify that in addition to the exact satisfaction of the boundary or initial conditions, optimized neural forms provide closed-form solutions of superior interpolation capability and controllable overall accuracy.
- Abstract(参考訳): ニューラルネットワークを用いた常微分方程式の近似解における重要な問題は、境界条件や初期条件の正確な満足度である。
この目的のために、ニューラルネットワークに依存する機能表現、すなわち、設計によって所定の条件を正確に満たす機能表現が導入された。
先行する進歩により、本研究は3つの異なる側面に寄与する。
まず、最適化されたニューラルフォームを作るための新しいフォーマリズムを示す。
第二に、正確な解から絶対偏差の上限を確立する方法の概要を示す。
第三に、ノイマン条件やロビン条件の問題をパラメトリックディリクレ条件の等価問題に変換する手法を導入する。
提案した最適化されたニューラルフォームは、一階と二階の常微分方程式と一階のシステムを含む様々な問題に対して数値的に試験された。
剛性および遅延微分方程式も検討された。
得られた解は, ルンゲ・クッタ法を用いて得られる解と, 利用可能な正確な解とを比較した。
報告された結果と分析により、境界条件や初期条件の正確な満足度に加えて、最適化されたニューラルフォームは、優れた補間能力と制御可能な全体的な精度のクローズドフォームソリューションを提供することを確認した。
関連論文リスト
- Solving higher-order Lane-Emden-Fowler type equations using
physics-informed neural networks: benchmark tests comparing soft and hard
constraints [0.0]
物理インフォームドニューラルネットワーク(PINN)は高次常微分方程式(ODE)を解くために提案される。
このディープラーニング技術は、特異ODEの異なるクラスを解くのに成功している。
論文 参考訳(メタデータ) (2023-07-14T12:27:05Z) - Comparison of Single- and Multi- Objective Optimization Quality for
Evolutionary Equation Discovery [77.34726150561087]
進化的微分方程式の発見は、より優先順位の低い方程式を得るための道具であることが証明された。
提案した比較手法は、バーガーズ方程式、波動方程式、コルテヴェーグ・ド・ブリーズ方程式といった古典的なモデル例で示される。
論文 参考訳(メタデータ) (2023-06-29T15:37:19Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Galerkin Neural Networks: A Framework for Approximating Variational
Equations with Error Control [0.0]
本稿では,ニューラルネットワークを用いて変分方程式の解を近似する手法を提案する。
基本関数がニューラルネットワークの列の実現である有限次元部分空間の列を用いる。
論文 参考訳(メタデータ) (2021-05-28T20:25:40Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Computational characteristics of feedforward neural networks for solving
a stiff differential equation [0.0]
減衰系をモデル化する単純だが基本的な常微分方程式の解について検討する。
パラメータやメソッドに対して好適な選択を特定できることを示す。
全体として、ニューラルネットワークアプローチによる信頼性と正確な結果を得るために何ができるかを示すことで、この分野の現在の文献を拡張します。
論文 参考訳(メタデータ) (2020-12-03T12:22:24Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Solving Differential Equations Using Neural Network Solution Bundles [1.2891210250935146]
本稿では,様々な初期状態とシステムパラメータに対して,ソリューションバンドル,ODEに対するソリューションの集合として使用するニューラルネットワークを提案する。
解バンドルはシステム状態の高速かつ並列化可能な評価を示し、パラメータ推定にベイズ推論を使用するのを容易にする。
論文 参考訳(メタデータ) (2020-06-17T02:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。