論文の概要: A practical PINN framework for multi-scale problems with multi-magnitude
loss terms
- arxiv url: http://arxiv.org/abs/2308.06672v2
- Date: Sun, 29 Oct 2023 16:22:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 20:23:37.446575
- Title: A practical PINN framework for multi-scale problems with multi-magnitude
loss terms
- Title(参考訳): マルチマグニチュード損失項付きマルチスケール問題のための実践的PINNフレームワーク
- Authors: Yong Wang and Yanzhong Yao and Jiawei Guo and Zhiming Gao
- Abstract要約: PINNを用いたマルチスケール問題に対する実践的なディープラーニングフレームワークを提案する。
新しいPINN法は主に2つの点で従来のPINN法とは異なる。
提案手法は計算効率と計算精度において従来のPINN法より有意に優れていた。
- 参考スコア(独自算出の注目度): 3.8645424244172135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For multi-scale problems, the conventional physics-informed neural networks
(PINNs) face some challenges in obtaining available predictions. In this paper,
based on PINNs, we propose a practical deep learning framework for multi-scale
problems by reconstructing the loss function and associating it with special
neural network architectures. New PINN methods derived from the improved PINN
framework differ from the conventional PINN method mainly in two aspects.
First, the new methods use a novel loss function by modifying the standard loss
function through a (grouping) regularization strategy. The regularization
strategy implements a different power operation on each loss term so that all
loss terms composing the loss function are of approximately the same order of
magnitude, which makes all loss terms be optimized synchronously during the
optimization process. Second, for the multi-frequency or high-frequency
problems, in addition to using the modified loss function, new methods upgrade
the neural network architecture from the common fully-connected neural network
to special network architectures such as the Fourier feature architecture, and
the integrated architecture developed by us. The combination of the above two
techniques leads to a significant improvement in the computational accuracy of
multi-scale problems. Several challenging numerical examples demonstrate the
effectiveness of the proposed methods. The proposed methods not only
significantly outperform the conventional PINN method in terms of computational
efficiency and computational accuracy, but also compare favorably with the
state-of-the-art methods in the recent literature. The improved PINN framework
facilitates better application of PINNs to multi-scale problems.
- Abstract(参考訳): マルチスケール問題に対して、従来の物理情報ニューラルネットワーク(PINN)は、利用可能な予測を得るためにいくつかの課題に直面している。
本稿では,pinnsを基礎として,損失関数を再構成し,それを特殊なニューラルネットワークアーキテクチャと関連付けることで,マルチスケール問題に対する実用的なディープラーニングフレームワークを提案する。
改良されたPINNフレームワークから派生した新しいPINN法は,従来のPINN法とは大きく異なる。
まず、(グループ化)正規化戦略を通じて標準損失関数を変更することで、新しい損失関数を使用する。
正規化戦略は、損失関数を構成する全ての損失項がほぼ同じ大きさで、最適化プロセス中に全ての損失項が同期的に最適化されるように、損失項ごとに異なる電力演算を実行する。
第2に、変調損失関数の使用に加えて、多周波または高周波の問題に対して、ニューラルネットワークアーキテクチャを一般的な完全接続ニューラルネットワークから、フーリエ特徴アーキテクチャのような特別なネットワークアーキテクチャや、私たちが開発した統合アーキテクチャにアップグレードする。
上記の2つの手法を組み合わせることで、マルチスケール問題の計算精度が大幅に向上する。
いくつかの難解な数値例が提案手法の有効性を示している。
提案手法は,従来のpinn法よりも計算効率と計算精度において著しく優れるだけでなく,最近の文献における最先端手法と比較した。
改良されたPINNフレームワークは、PINNのマルチスケール問題へのより良い適用を容易にする。
関連論文リスト
- A Primal-dual algorithm for image reconstruction with ICNNs [3.4797100095791706]
我々は、正規化器が入力ニューラルネットワーク(ICNN)によってパラメータ化されるデータ駆動変分フレームワークにおける最適化問題に対処する。
勾配に基づく手法はそのような問題を解決するのに一般的に用いられるが、非滑らかさを効果的に扱うのに苦労する。
提案手法は, 速度と安定性の両方の観点から, 下位段階の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-16T10:36:29Z) - Component-based Sketching for Deep ReLU Nets [55.404661149594375]
各種タスクのためのディープネットコンポーネントに基づくスケッチ手法を開発した。
我々はディープネットトレーニングを線形経験的リスク最小化問題に変換する。
提案したコンポーネントベーススケッチは飽和関数の近似においてほぼ最適であることを示す。
論文 参考訳(メタデータ) (2024-09-21T15:30:43Z) - Physics-Informed Neural Networks with Trust-Region Sequential Quadratic Programming [4.557963624437784]
最近の研究によると、物理情報ニューラルネットワーク(PINN)は比較的複雑な部分微分方程式(PDE)を学習できない可能性がある。
本稿では, 信頼領域逐次準計画法(trSQP-PINN)を導入し, PINNの障害モードに対処する。
PINNのようにペナル化ソフト制約損失を直接訓練するのに対し,本手法はソフト制約損失を利用して信頼範囲半径を適応的に調整しながら,ハード制約損失の線形2次近似を行う。
論文 参考訳(メタデータ) (2024-09-16T23:22:12Z) - ODE Discovery for Longitudinal Heterogeneous Treatment Effects Inference [69.24516189971929]
本稿では, 閉形式常微分方程式(ODE)という, 縦条件下での新しい解法を提案する。
私たちはまだODEを学ぶために継続的な最適化に依存していますが、結果として生じる推論マシンはもはやニューラルネットワークではありません。
論文 参考訳(メタデータ) (2024-03-16T02:07:45Z) - PINNsFormer: A Transformer-Based Framework For Physics-Informed Neural Networks [22.39904196850583]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の数値解を近似するための有望なディープラーニングフレームワークとして登場した。
我々は,この制限に対処するために,新しいTransformerベースのフレームワークであるPINNsFormerを紹介した。
PINNsFormerは、PINNの障害モードや高次元PDEなど、様々なシナリオにおいて優れた一般化能力と精度を実現する。
論文 参考訳(メタデータ) (2023-07-21T18:06:27Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Finite Basis Physics-Informed Neural Networks (FBPINNs): a scalable
domain decomposition approach for solving differential equations [20.277873724720987]
我々はFBPINN(Finite Basis PINNs)と呼ばれる微分方程式に関連する大きな問題を解くための新しいスケーラブルなアプローチを提案する。
FBPINNは古典的有限要素法に着想を得ており、微分方程式の解はコンパクトな支持を持つ基底関数の有限集合の和として表される。
FBPINNでは、ニューラルネットワークを使ってこれらの基底関数を学習する。
論文 参考訳(メタデータ) (2021-07-16T13:03:47Z) - Efficiently Solving High-Order and Nonlinear ODEs with Rational Fraction
Polynomial: the Ratio Net [3.155317790896023]
本研究では、ニューラルネットワークアーキテクチャを導入して、比重ネットと呼ばれる試行関数を構築することで、異なるアプローチをとる。
実証実験により,提案手法は既存手法と比較して高い効率性を示すことを示した。
比重ネットは、微分方程式の解法効率と有効性を向上させることを約束する。
論文 参考訳(メタデータ) (2021-05-18T16:59:52Z) - Deep Multi-Task Learning for Cooperative NOMA: System Design and
Principles [52.79089414630366]
我々は,近年のディープラーニング(DL)の進歩を反映した,新しいディープ・コラボレーティブなNOMAスキームを開発する。
我々は,システム全体を包括的に最適化できるように,新しいハイブリッドカスケードディープニューラルネットワーク(DNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-07-27T12:38:37Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。