論文の概要: ASPINN: An asymptotic strategy for solving singularly perturbed differential equations
- arxiv url: http://arxiv.org/abs/2409.13185v1
- Date: Fri, 20 Sep 2024 03:25:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 11:29:51.778741
- Title: ASPINN: An asymptotic strategy for solving singularly perturbed differential equations
- Title(参考訳): ASPINN:特異摂動微分方程式を解く漸近戦略
- Authors: Sen Wang, Peizhi Zhao, Tao Song,
- Abstract要約: 本稿では,物理インフォームドニューラルネットワーク (PINN) と一般結合型物理インフォームドニューラルネットワーク (GKPINN) を一般化した漸近型物理インフォームドニューラルネットワーク (ASPINN) を提案する。
ASPINNは、境界層に指数層が配置されているため、SPDEを解くのに強力な適合性を持つ。
本稿では,ASPINN法が境界層問題において有望であることを示す,多様なSPDEのクラスを解くことでASPINNの効果を実証する。
- 参考スコア(独自算出の注目度): 12.14934707131722
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Solving Singularly Perturbed Differential Equations (SPDEs) presents challenges due to the rapid change of their solutions at the boundary layer. In this manuscript, We propose Asymptotic Physics-Informed Neural Networks (ASPINN), a generalization of Physics-Informed Neural Networks (PINN) and General-Kindred Physics-Informed Neural Networks (GKPINN) approaches. This is a decomposition method based on the idea of asymptotic analysis. Compared to PINN, the ASPINN method has a strong fitting ability for solving SPDEs due to the placement of exponential layers at the boundary layer. Unlike GKPINN, ASPINN lessens the number of fully connected layers, thereby reducing the training cost more effectively. Moreover, ASPINN theoretically approximates the solution at the boundary layer more accurately, which accuracy is also improved compared to GKPINN. We demonstrate the effect of ASPINN by solving diverse classes of SPDEs, which clearly shows that the ASPINN method is promising in boundary layer problems. Furthermore, we introduce Chebyshev Kolmogorov-Arnold Networks (Chebyshev-KAN) instead of MLP, achieving better performance in various experiments.
- Abstract(参考訳): 特異摂動微分方程式 (SPDE) の解法は, 境界層における解の急激な変化に起因する。
本論文では,物理情報ニューラルネットワーク (PINN) と一般結合型物理情報ニューラルネットワーク (GKPINN) の一般化である漸近的物理情報ニューラルネットワーク (ASPINN) を提案する。
これは漸近解析の考え方に基づく分解法である。
PINNと比較して、ASPINN法は境界層に指数層が配置されているため、SPDEを解くのに強い適合性を持つ。
GKPINNとは異なり、ASPINNは完全に接続されたレイヤーの数を減らし、トレーニングコストをより効率的に削減する。
さらに、ASPINNは理論上境界層での解をより正確に近似し、GKPINNと比較して精度も向上する。
本稿では,ASPINN法が境界層問題において有望であることを示す,多様なSPDEのクラスを解くことでASPINNの効果を実証する。
さらに,MLPの代わりにChebyshev Kolmogorov-Arnold Networks (Chebyshev-KAN)を導入し,様々な実験で高い性能を実現した。
関連論文リスト
- General-Kindred Physics-Informed Neural Network to the Solutions of Singularly Perturbed Differential Equations [11.121415128908566]
我々は,Singular Perturbation Differential Equations(SPDE)の解法として,GKPINN(General-Kindred Physics-Informed Neural Network)を提案する。
この手法は, 境界層の事前知識を方程式から利用し, 境界層を近似するPINNを支援する新しいネットワークを確立する。
GKPINNは,確立したPINN法と比較して,2~4桁の誤差を2~4桁に削減し,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-08-27T02:03:22Z) - Residual resampling-based physics-informed neural network for neutron diffusion equations [7.105073499157097]
中性子拡散方程式は原子炉の解析において重要な役割を果たす。
従来のPINNアプローチでは、完全に接続されたネットワーク(FCN)アーキテクチャを利用することが多い。
R2-PINNは、現在の方法に固有の制限を効果的に克服し、中性子拡散方程式のより正確で堅牢な解を提供する。
論文 参考訳(メタデータ) (2024-06-23T13:49:31Z) - Error Analysis and Numerical Algorithm for PDE Approximation with Hidden-Layer Concatenated Physics Informed Neural Networks [0.9693477883827689]
本稿では,隠れた物理情報ニューラルネットワーク(HLConcPINN)を提案する。
隠れたフィードフォワードニューラルネットワーク、修正されたブロックタイムマーチング戦略、偏微分方程式(PDE)を近似するための物理情報アプローチを組み合わせる。
本手法の近似誤差は, 長期間の地平線を有する動的シミュレーションのトレーニング損失によって効果的に制御できることを示す。
論文 参考訳(メタデータ) (2024-06-10T15:12:53Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Ensemble learning for Physics Informed Neural Networks: a Gradient Boosting approach [10.250994619846416]
段階的強化(GB)と呼ばれる新しい訓練パラダイムを提案する。
与えられたPDEの解を1つのニューラルネットワークで直接学習する代わりに、我々のアルゴリズムは、より優れた結果を得るために、一連のニューラルネットワークを用いています。
この研究は、PINNでアンサンブル学習技術を採用するための扉も開ける。
論文 参考訳(メタデータ) (2023-02-25T19:11:44Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Anisotropic, Sparse and Interpretable Physics-Informed Neural Networks
for PDEs [0.0]
我々は,従来のSPINN(Sparse, Physics-informed, Interpretable Neural Networks)と呼ばれる異方性拡張であるASPINNを提案し,PDEを解く。
ASPINNはラジアル基底関数ネットワークを一般化する。
また、ASPINNのトレーニングを教師付き学習アルゴリズムに近い形式に合理化します。
論文 参考訳(メタデータ) (2022-07-01T12:24:43Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。