論文の概要: A deep learning framework for multi-scale models based on
physics-informed neural networks
- arxiv url: http://arxiv.org/abs/2308.06672v1
- Date: Sun, 13 Aug 2023 03:26:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 16:03:10.090272
- Title: A deep learning framework for multi-scale models based on
physics-informed neural networks
- Title(参考訳): 物理インフォームドニューラルネットワークに基づくマルチスケールモデルのためのディープラーニングフレームワーク
- Authors: Yong Wang and Yanzhong Yao and Jiawei Guo and Zhiming Gao
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は、ディープニューラルネットワークと偏微分方程式(PDE)の解を結合する
本稿では,損失関数を再構成することで,マルチスケールの問題を解決するための新しい枠組みを提案する。
- 参考スコア(独自算出の注目度): 3.8645424244172135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-informed neural networks (PINN) combine deep neural networks with the
solution of partial differential equations (PDEs), creating a new and promising
research area for numerically solving PDEs. Faced with a class of multi-scale
problems that include loss terms of different orders of magnitude in the loss
function, it is challenging for standard PINN methods to obtain an available
prediction. In this paper, we propose a new framework for solving multi-scale
problems by reconstructing the loss function. The framework is based on the
standard PINN method, and it modifies the loss function of the standard PINN
method by applying different numbers of power operations to the loss terms of
different magnitudes, so that the individual loss terms composing the loss
function have approximately the same order of magnitude among themselves. In
addition, we give a grouping regularization strategy, and this strategy can
deal well with the problem which varies significantly in different subdomains.
The proposed method enables loss terms with different magnitudes to be
optimized simultaneously, and it advances the application of PINN for
multi-scale problems.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、ディープニューラルネットワークと偏微分方程式(PDE)の解を結合し、PDEを数値的に解くための新しい、有望な研究領域を作り出す。
損失関数に等級の異なる損失項を含むマルチスケールの問題に直面すると、標準的なpinn法が利用可能な予測を得ることは困難である。
本稿では,損失関数の再構成によるマルチスケール問題を解決するための新しい枠組みを提案する。
このフレームワークは標準のPINN法に基づいており、異なる数の電力演算を異なる大きさの損失項に適用することにより、標準のPINN法の損失関数を修正し、損失関数を構成する個々の損失項は、それぞれがほぼ同じ大きさである。
さらに、グループ化正規化戦略を提案し、この戦略は異なるサブドメインで大きく異なる問題に対処できる。
提案手法は,異なる大きさの損失項を同時に最適化し,マルチスケール問題へのPINNの適用を推し進める。
関連論文リスト
- A Primal-dual algorithm for image reconstruction with ICNNs [3.4797100095791706]
我々は、正規化器が入力ニューラルネットワーク(ICNN)によってパラメータ化されるデータ駆動変分フレームワークにおける最適化問題に対処する。
勾配に基づく手法はそのような問題を解決するのに一般的に用いられるが、非滑らかさを効果的に扱うのに苦労する。
提案手法は, 速度と安定性の両方の観点から, 下位段階の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-16T10:36:29Z) - Component-based Sketching for Deep ReLU Nets [55.404661149594375]
各種タスクのためのディープネットコンポーネントに基づくスケッチ手法を開発した。
我々はディープネットトレーニングを線形経験的リスク最小化問題に変換する。
提案したコンポーネントベーススケッチは飽和関数の近似においてほぼ最適であることを示す。
論文 参考訳(メタデータ) (2024-09-21T15:30:43Z) - Physics-Informed Neural Networks with Trust-Region Sequential Quadratic Programming [4.557963624437784]
最近の研究によると、物理情報ニューラルネットワーク(PINN)は比較的複雑な部分微分方程式(PDE)を学習できない可能性がある。
本稿では, 信頼領域逐次準計画法(trSQP-PINN)を導入し, PINNの障害モードに対処する。
PINNのようにペナル化ソフト制約損失を直接訓練するのに対し,本手法はソフト制約損失を利用して信頼範囲半径を適応的に調整しながら,ハード制約損失の線形2次近似を行う。
論文 参考訳(メタデータ) (2024-09-16T23:22:12Z) - ODE Discovery for Longitudinal Heterogeneous Treatment Effects Inference [69.24516189971929]
本稿では, 閉形式常微分方程式(ODE)という, 縦条件下での新しい解法を提案する。
私たちはまだODEを学ぶために継続的な最適化に依存していますが、結果として生じる推論マシンはもはやニューラルネットワークではありません。
論文 参考訳(メタデータ) (2024-03-16T02:07:45Z) - PINNsFormer: A Transformer-Based Framework For Physics-Informed Neural Networks [22.39904196850583]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の数値解を近似するための有望なディープラーニングフレームワークとして登場した。
我々は,この制限に対処するために,新しいTransformerベースのフレームワークであるPINNsFormerを紹介した。
PINNsFormerは、PINNの障害モードや高次元PDEなど、様々なシナリオにおいて優れた一般化能力と精度を実現する。
論文 参考訳(メタデータ) (2023-07-21T18:06:27Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Finite Basis Physics-Informed Neural Networks (FBPINNs): a scalable
domain decomposition approach for solving differential equations [20.277873724720987]
我々はFBPINN(Finite Basis PINNs)と呼ばれる微分方程式に関連する大きな問題を解くための新しいスケーラブルなアプローチを提案する。
FBPINNは古典的有限要素法に着想を得ており、微分方程式の解はコンパクトな支持を持つ基底関数の有限集合の和として表される。
FBPINNでは、ニューラルネットワークを使ってこれらの基底関数を学習する。
論文 参考訳(メタデータ) (2021-07-16T13:03:47Z) - Efficiently Solving High-Order and Nonlinear ODEs with Rational Fraction
Polynomial: the Ratio Net [3.155317790896023]
本研究では、ニューラルネットワークアーキテクチャを導入して、比重ネットと呼ばれる試行関数を構築することで、異なるアプローチをとる。
実証実験により,提案手法は既存手法と比較して高い効率性を示すことを示した。
比重ネットは、微分方程式の解法効率と有効性を向上させることを約束する。
論文 参考訳(メタデータ) (2021-05-18T16:59:52Z) - Deep Multi-Task Learning for Cooperative NOMA: System Design and
Principles [52.79089414630366]
我々は,近年のディープラーニング(DL)の進歩を反映した,新しいディープ・コラボレーティブなNOMAスキームを開発する。
我々は,システム全体を包括的に最適化できるように,新しいハイブリッドカスケードディープニューラルネットワーク(DNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-07-27T12:38:37Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。