論文の概要: A practical PINN framework for multi-scale problems with multi-magnitude
loss terms
- arxiv url: http://arxiv.org/abs/2308.06672v2
- Date: Sun, 29 Oct 2023 16:22:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 20:23:37.446575
- Title: A practical PINN framework for multi-scale problems with multi-magnitude
loss terms
- Title(参考訳): マルチマグニチュード損失項付きマルチスケール問題のための実践的PINNフレームワーク
- Authors: Yong Wang and Yanzhong Yao and Jiawei Guo and Zhiming Gao
- Abstract要約: PINNを用いたマルチスケール問題に対する実践的なディープラーニングフレームワークを提案する。
新しいPINN法は主に2つの点で従来のPINN法とは異なる。
提案手法は計算効率と計算精度において従来のPINN法より有意に優れていた。
- 参考スコア(独自算出の注目度): 3.8645424244172135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For multi-scale problems, the conventional physics-informed neural networks
(PINNs) face some challenges in obtaining available predictions. In this paper,
based on PINNs, we propose a practical deep learning framework for multi-scale
problems by reconstructing the loss function and associating it with special
neural network architectures. New PINN methods derived from the improved PINN
framework differ from the conventional PINN method mainly in two aspects.
First, the new methods use a novel loss function by modifying the standard loss
function through a (grouping) regularization strategy. The regularization
strategy implements a different power operation on each loss term so that all
loss terms composing the loss function are of approximately the same order of
magnitude, which makes all loss terms be optimized synchronously during the
optimization process. Second, for the multi-frequency or high-frequency
problems, in addition to using the modified loss function, new methods upgrade
the neural network architecture from the common fully-connected neural network
to special network architectures such as the Fourier feature architecture, and
the integrated architecture developed by us. The combination of the above two
techniques leads to a significant improvement in the computational accuracy of
multi-scale problems. Several challenging numerical examples demonstrate the
effectiveness of the proposed methods. The proposed methods not only
significantly outperform the conventional PINN method in terms of computational
efficiency and computational accuracy, but also compare favorably with the
state-of-the-art methods in the recent literature. The improved PINN framework
facilitates better application of PINNs to multi-scale problems.
- Abstract(参考訳): マルチスケール問題に対して、従来の物理情報ニューラルネットワーク(PINN)は、利用可能な予測を得るためにいくつかの課題に直面している。
本稿では,pinnsを基礎として,損失関数を再構成し,それを特殊なニューラルネットワークアーキテクチャと関連付けることで,マルチスケール問題に対する実用的なディープラーニングフレームワークを提案する。
改良されたPINNフレームワークから派生した新しいPINN法は,従来のPINN法とは大きく異なる。
まず、(グループ化)正規化戦略を通じて標準損失関数を変更することで、新しい損失関数を使用する。
正規化戦略は、損失関数を構成する全ての損失項がほぼ同じ大きさで、最適化プロセス中に全ての損失項が同期的に最適化されるように、損失項ごとに異なる電力演算を実行する。
第2に、変調損失関数の使用に加えて、多周波または高周波の問題に対して、ニューラルネットワークアーキテクチャを一般的な完全接続ニューラルネットワークから、フーリエ特徴アーキテクチャのような特別なネットワークアーキテクチャや、私たちが開発した統合アーキテクチャにアップグレードする。
上記の2つの手法を組み合わせることで、マルチスケール問題の計算精度が大幅に向上する。
いくつかの難解な数値例が提案手法の有効性を示している。
提案手法は,従来のpinn法よりも計算効率と計算精度において著しく優れるだけでなく,最近の文献における最先端手法と比較した。
改良されたPINNフレームワークは、PINNのマルチスケール問題へのより良い適用を容易にする。
関連論文リスト
- PNN: From proximal algorithms to robust unfolded image denoising
networks and Plug-and-Play methods [7.317910352447519]
本稿では,二元FBと二元Chambolle-Pockアルゴリズムの両方に基づいて,ガウス分母タスクのためのPNNを統一的に構築するフレームワークを提案する。
また、これらのアルゴリズムの高速化により、関連するNN層におけるスキップ接続が可能であることを示す。
論文 参考訳(メタデータ) (2023-08-06T15:32:16Z) - PINNsFormer: A Transformer-Based Framework For Physics-Informed Neural
Networks [25.1742784555125]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の数値解を近似するための有望なディープラーニングフレームワークとして登場した。
我々は,この制限に対処するために,新しいTransformerベースのフレームワークであるPINNsFormerを紹介した。
PINNsFormerは、PINNの障害モードや高次元PDEなど、様々なシナリオにおいて優れた一般化能力と精度を実現する。
論文 参考訳(メタデータ) (2023-07-21T18:06:27Z) - RBF-MGN:Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [4.425915683879297]
グラフニューラルネットワーク(GNN)とラジアル基底関数有限差分(RBF-FD)に基づく新しいフレームワークを提案する。
RBF-FDはモデルトレーニングを導くために微分方程式の高精度差分形式を構築するために用いられる。
提案アルゴリズムの一般化可能性,精度,効率性を,異なるPDEパラメータで説明する。
論文 参考訳(メタデータ) (2022-12-06T10:08:02Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Finite Basis Physics-Informed Neural Networks (FBPINNs): a scalable
domain decomposition approach for solving differential equations [20.277873724720987]
我々はFBPINN(Finite Basis PINNs)と呼ばれる微分方程式に関連する大きな問題を解くための新しいスケーラブルなアプローチを提案する。
FBPINNは古典的有限要素法に着想を得ており、微分方程式の解はコンパクトな支持を持つ基底関数の有限集合の和として表される。
FBPINNでは、ニューラルネットワークを使ってこれらの基底関数を学習する。
論文 参考訳(メタデータ) (2021-07-16T13:03:47Z) - Efficiently Solving High-Order and Nonlinear ODEs with Rational Fraction
Polynomial: the Ratio Net [3.155317790896023]
本研究では、ニューラルネットワークアーキテクチャを導入して、比重ネットと呼ばれる試行関数を構築することで、異なるアプローチをとる。
実証実験により,提案手法は既存手法と比較して高い効率性を示すことを示した。
比重ネットは、微分方程式の解法効率と有効性を向上させることを約束する。
論文 参考訳(メタデータ) (2021-05-18T16:59:52Z) - Deep Multi-Task Learning for Cooperative NOMA: System Design and
Principles [52.79089414630366]
我々は,近年のディープラーニング(DL)の進歩を反映した,新しいディープ・コラボレーティブなNOMAスキームを開発する。
我々は,システム全体を包括的に最適化できるように,新しいハイブリッドカスケードディープニューラルネットワーク(DNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-07-27T12:38:37Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。