論文の概要: LNN-PINN: A Unified Physics-Only Training Framework with Liquid Residual Blocks
- arxiv url: http://arxiv.org/abs/2508.08935v1
- Date: Tue, 12 Aug 2025 13:35:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.438042
- Title: LNN-PINN: A Unified Physics-Only Training Framework with Liquid Residual Blocks
- Title(参考訳): LNN-PINN: 液体残留ブロックを用いた統一物理専用トレーニングフレームワーク
- Authors: Ze Tao, Hanxuan Wang, Fujun Liu,
- Abstract要約: LNN-PINNは、液体残留ゲーティングアーキテクチャを組み込んだ物理インフォームドニューラルネットワークフレームワークである。
4つのベンチマーク問題の中で、LNN-PINNはRMSEとMAEを同一の訓練条件下で一貫して削減した。
- 参考スコア(独自算出の注目度): 0.22940141855172028
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Physics-informed neural networks (PINNs) have attracted considerable attention for their ability to integrate partial differential equation priors into deep learning frameworks; however, they often exhibit limited predictive accuracy when applied to complex problems. To address this issue, we propose LNN-PINN, a physics-informed neural network framework that incorporates a liquid residual gating architecture while preserving the original physics modeling and optimization pipeline to improve predictive accuracy. The method introduces a lightweight gating mechanism solely within the hidden-layer mapping, keeping the sampling strategy, loss composition, and hyperparameter settings unchanged to ensure that improvements arise purely from architectural refinement. Across four benchmark problems, LNN-PINN consistently reduced RMSE and MAE under identical training conditions, with absolute error plots further confirming its accuracy gains. Moreover, the framework demonstrates strong adaptability and stability across varying dimensions, boundary conditions, and operator characteristics. In summary, LNN-PINN offers a concise and effective architectural enhancement for improving the predictive accuracy of physics-informed neural networks in complex scientific and engineering problems.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式をディープラーニングフレームワークに統合する能力にかなり注目されているが、複雑な問題に適用した場合、予測精度が制限されることがしばしばある。
この問題に対処するために,LNN-PINNを提案する。LNN-PINNは,元の物理モデリングと最適化パイプラインを保ちながら,液体残差ゲーティングアーキテクチャを組み込んだ物理インフォームドニューラルネットワークフレームワークである。
本手法では, 隠れ層マッピングのみに軽量なゲーティング機構を導入し, サンプリング戦略, 損失組成, ハイパーパラメータ設定を一定に保ち, 改良がアーキテクチャ改善から純粋に生じることを保証する。
4つのベンチマーク問題の中で、LNN-PINNはRMSEとMAEを同一の訓練条件下で一貫して削減し、絶対誤差プロットはその精度の向上をさらに確認した。
さらに、このフレームワークは、様々な次元、境界条件、演算子特性にまたがる強い適応性と安定性を示す。
まとめると、LNN-PINNは複雑な科学的・工学的な問題における物理情報ニューラルネットワークの予測精度を改善するための簡潔で効果的なアーキテクチャ拡張を提供する。
関連論文リスト
- Mask-PINNs: Regulating Feature Distributions in Physics-Informed Neural Networks [1.6984490081106065]
Mask-PINNは、内部の特徴分布を、隠された層にわたってポイントワイズで適用されたスムーズで学習可能なマスク機能を通じて制御する。
予測精度,収束安定性,ロバスト性に一貫した改善を示し,ベースラインモデルよりもL2誤差を最大2桁まで低減した。
論文 参考訳(メタデータ) (2025-05-09T15:38:52Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Improved physics-informed neural network in mitigating gradient related failures [11.356695216531328]
物理インフォームドニューラルネットワーク(PINN)は、高度なデータ駆動技術で基本的な物理原理を統合する。
PINNは勾配流の剛性に悩まされ、予測能力が制限される。
本稿では,勾配関連障害を軽減するために改良されたPINNを提案する。
論文 参考訳(メタデータ) (2024-07-28T07:58:10Z) - Stable Weight Updating: A Key to Reliable PDE Solutions Using Deep Learning [0.0]
本稿では,物理インフォームドニューラルネットワーク(PINN)の安定性と精度の向上を目的とした,新しい残差ベースアーキテクチャを提案する。
このアーキテクチャは、残りの接続を組み込むことで従来のニューラルネットワークを強化し、よりスムーズなウェイト更新を可能にし、バックプロパゲーション効率を向上させる。
特にSquared Residual Networkは、従来のニューラルネットワークと比較して安定性と精度の向上を実現し、堅牢なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-07-10T05:20:43Z) - Enhancing Reliability of Neural Networks at the Edge: Inverted
Normalization with Stochastic Affine Transformations [0.22499166814992438]
インメモリコンピューティングアーキテクチャに実装されたBayNNのロバスト性と推論精度を本質的に向上する手法を提案する。
実証的な結果は推論精度の優雅な低下を示し、最大で58.11%の値で改善された。
論文 参考訳(メタデータ) (2024-01-23T00:27:31Z) - Structure-Preserving Physics-Informed Neural Networks With Energy or
Lyapunov Structure [9.571966961251347]
本稿では,構造保存型PINNを提案し,その性能を向上し,下流タスクへの適用範囲を広げる。
構造保存型PINNを用いたロバスト画像認識のためのフレームワークを提案する。
実験により,提案手法は偏微分方程式に対するPINNの数値精度を向上することを示した。
論文 参考訳(メタデータ) (2024-01-10T08:02:38Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。