論文の概要: Enriched Physics-informed Neural Networks for Dynamic
Poisson-Nernst-Planck Systems
- arxiv url: http://arxiv.org/abs/2402.01768v1
- Date: Thu, 1 Feb 2024 02:57:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 02:17:45.293161
- Title: Enriched Physics-informed Neural Networks for Dynamic
Poisson-Nernst-Planck Systems
- Title(参考訳): 動的Poisson-Nernst-Planckシステムのためのリッチ物理インフォームドニューラルネットワーク
- Authors: Xujia Huang, Fajie Wang, Benrong Zhang and Hanqing Liu
- Abstract要約: 本稿では、動的Poisson-Nernst-Planck(PNP)方程式を解くために、メッシュレス深層学習アルゴリズム、EPINN(enriched Physics-informed Neural Network)を提案する。
EPINNは、従来の物理インフォームドニューラルネットワークを基盤フレームワークとして、損失関数のバランスをとるために適応的な損失重みを追加する。
数値計算の結果, 結合された非線形系の解法において, 従来の数値法よりも適用性が高いことがわかった。
- 参考スコア(独自算出の注目度): 0.8192907805418583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a meshless deep learning algorithm, enriched
physics-informed neural networks (EPINNs), to solve dynamic
Poisson-Nernst-Planck (PNP) equations with strong coupling and nonlinear
characteristics. The EPINNs takes the traditional physics-informed neural
networks as the foundation framework, and adds the adaptive loss weight to
balance the loss functions, which automatically assigns the weights of losses
by updating the parameters in each iteration based on the maximum likelihood
estimate. The resampling strategy is employed in the EPINNs to accelerate the
convergence of loss function. Meanwhile, the GPU parallel computing technique
is adopted to accelerate the solving process. Four examples are provided to
demonstrate the validity and effectiveness of the proposed method. Numerical
results indicate that the new method has better applicability than traditional
numerical methods in solving such coupled nonlinear systems. More importantly,
the EPINNs is more accurate, stable, and fast than the traditional
physics-informed neural networks. This work provides a simple and
high-performance numerical tool for addressing PNPs with arbitrary boundary
shapes and boundary conditions.
- Abstract(参考訳): 本稿では,強い結合性と非線形特性を持つ動的Poisson-Nernst-Planck方程式を解くために,メッシュレス深層学習アルゴリズムEPINNを提案する。
EPINNは、従来の物理情報ニューラルネットワークを基盤として、損失関数のバランスをとるために適応的な損失重みを追加し、最大推定値に基づいて各イテレーションのパラメータを更新することで、損失の重みを自動的に割り当てる。
再サンプリング戦略は、損失関数の収束を加速するためにEPINNで使用される。
一方、GPU並列コンピューティング技術は、問題解決プロセスの高速化に採用されている。
提案手法の有効性と有効性を示す4つの例を示す。
数値計算の結果, 結合非線形系の解法において, 従来の数値法よりも適用性が高いことがわかった。
さらに重要なのは、EPINNは従来の物理インフォームドニューラルネットワークよりも正確で、安定しており、高速だ。
この研究は任意の境界形状と境界条件を持つPNPに対処するための単純で高性能な数値ツールを提供する。
関連論文リスト
- Stable Weight Updating: A Key to Reliable PDE Solutions Using Deep Learning [0.0]
本稿では,物理インフォームドニューラルネットワーク(PINN)の安定性と精度の向上を目的とした,新しい残差ベースアーキテクチャを提案する。
このアーキテクチャは、残りの接続を組み込むことで従来のニューラルネットワークを強化し、よりスムーズなウェイト更新を可能にし、バックプロパゲーション効率を向上させる。
特にSquared Residual Networkは、従来のニューラルネットワークと比較して安定性と精度の向上を実現し、堅牢なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-07-10T05:20:43Z) - Neural Networks-based Random Vortex Methods for Modelling Incompressible Flows [0.0]
本稿では,(2D)非圧縮性ナビエ-ストークス方程式に対する解を近似するためのニューラルネットワークに基づく新しい手法を提案する。
このアルゴリズムは、ランダム渦力学の計算効率の良い定式化を利用する損失関数に基づいて、渦を近似する物理インフォームドニューラルネットワークを用いている。
論文 参考訳(メタデータ) (2024-05-22T14:36:23Z) - Physics-Informed Neural Networks for Time-Domain Simulations: Accuracy,
Computational Cost, and Flexibility [0.0]
物理インフォームドニューラルネットワーク(PINN)は,非線形力学系の計算を劇的に高速化するための,有望なソリューションである。
本研究では,負荷変動に対する動的応答に着目し,これらの手法の適用性について検討する。
そこで本研究では,損失関数に勾配に基づく項を導入することにより,ニューラルネットワーク(NN)トレーニングの新たな正規化を提案する。
論文 参考訳(メタデータ) (2023-03-15T23:53:32Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Self-Adaptive Physics-Informed Neural Networks using a Soft Attention Mechanism [1.6114012813668932]
非線形偏微分方程式(PDE)の数値解に対するディープニューラルネットワークの有望な応用として、物理情報ニューラルネットワーク(PINN)が登場した。
そこで本研究では,PINNを適応的にトレーニングする方法として,適応重みを完全にトレーニング可能とし,各トレーニングポイントに個別に適用する手法を提案する。
線形および非線形のベンチマーク問題による数値実験では、SA-PINNはL2エラーにおいて他の最先端のPINNアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-09-07T04:07:52Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Physics-informed deep learning for incompressible laminar flows [13.084113582897965]
流体力学のための物理インフォームドニューラルネットワーク(PINN)の混合可変方式を提案する。
パラメトリック研究では、混合変数スキームがPINNのトレーニング容易性と解の精度を向上させることが示されている。
論文 参考訳(メタデータ) (2020-02-24T21:51:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。