論文の概要: HyperPINN: Learning parameterized differential equations with
physics-informed hypernetworks
- arxiv url: http://arxiv.org/abs/2111.01008v1
- Date: Thu, 28 Oct 2021 17:50:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 17:28:31.590955
- Title: HyperPINN: Learning parameterized differential equations with
physics-informed hypernetworks
- Title(参考訳): HyperPINN:物理インフォームドハイパーネットを用いたパラメータ化微分方程式の学習
- Authors: Filipe de Avila Belbute-Peres, Yi-fan Chen, Fei Sha
- Abstract要約: 本稿では,ハイパーネットワークを用いてパラメータ化から微分方程式を解くニューラルネットワークを学習するHyperPINNを提案する。
我々は、PDEとODEの両方の実験で、このタイプのモデルが、小さなサイズを維持する微分方程式に対するニューラルネットワークの解をもたらすことを実証した。
- 参考スコア(独自算出の注目度): 32.095262903584725
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Many types of physics-informed neural network models have been proposed in
recent years as approaches for learning solutions to differential equations.
When a particular task requires solving a differential equation at multiple
parameterizations, this requires either re-training the model, or expanding its
representation capacity to include the parameterization -- both solution that
increase its computational cost. We propose the HyperPINN, which uses
hypernetworks to learn to generate neural networks that can solve a
differential equation from a given parameterization. We demonstrate with
experiments on both a PDE and an ODE that this type of model can lead to neural
network solutions to differential equations that maintain a small size, even
when learning a family of solutions over a parameter space.
- Abstract(参考訳): 近年、微分方程式の解を学習するためのアプローチとして、物理学インフォームドニューラルネットワークモデルが数多く提案されている。
特定のタスクが複数のパラメータ化で微分方程式を解く必要がある場合、モデルを再訓練するか、パラメータ化を含むために表現能力を拡大するかのどちらかが必要となる。
本研究では,ハイパーネットワークを用いて与えられたパラメータ化から微分方程式を解くニューラルネットワークを生成するハイパーピンを提案する。
我々はPDEとODEの両方で実験を行い、パラメータ空間上の解の族を学習しても、このタイプのモデルは小さなサイズを維持する微分方程式に対するニューラルネットワークの解をもたらすことを実証した。
関連論文リスト
- Two-scale Neural Networks for Partial Differential Equations with Small Parameters [1.6874375111244329]
物理インフォームドニューラルネットワーク(PINN)を用いた偏微分方程式(PDE)を小さなパラメータで解くための2スケールニューラルネットワーク手法を提案する。
提案手法は, トラルニケートパラメータの探索にフーリエ特徴やその他の計算的課税を加えることなく, 簡単な方法で小さなパラメータでPDEを解くことができる。
論文 参考訳(メタデータ) (2024-02-27T05:57:45Z) - Reduced-order modeling for parameterized PDEs via implicit neural
representations [4.135710717238787]
我々は、パラメータ化偏微分方程式(PDE)を効率的に解くために、新しいデータ駆動型低次モデリング手法を提案する。
提案フレームワークは、PDEを符号化し、パラメトリゼーションニューラルネットワーク(PNODE)を用いて、複数のPDEパラメータを特徴とする潜時ダイナミクスを学習する。
我々は,提案手法を大規模なレイノルズ数で評価し,O(103)の高速化と,基底真理値に対する1%の誤差を得る。
論文 参考訳(メタデータ) (2023-11-28T01:35:06Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Physics-informed Neural Network: The Effect of Reparameterization in
Solving Differential Equations [0.0]
複雑な物理学では、解析的に解くのが難しい微分方程式がほとんどである。
近年, 物理インフォームドニューラルネットワークは, 様々な微分方程式の解法系において, 非常によく機能することが示されている。
論文 参考訳(メタデータ) (2023-01-28T07:53:26Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - On Neural Differential Equations [13.503274710499971]
特に、ニューラル微分方程式(NDE)は、ニューラルネットワークと微分方程式が同じコインの両側であることを示す。
NDEは生成問題、動的システム、時系列を扱うのに適している。
NDEは高容量関数近似、モデル空間への強い先行性、不規則なデータを扱う能力、メモリ効率、そして両サイドで利用可能な豊富な理論を提供する。
論文 参考訳(メタデータ) (2022-02-04T23:32:29Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Unsupervised Learning of Solutions to Differential Equations with
Generative Adversarial Networks [1.1470070927586016]
本研究では,教師なしニューラルネットワークを用いた微分方程式の解法を開発した。
差分方程式GAN (DEQGAN) と呼ばれる手法は, 平均二乗誤差を桁違いに低減できることを示す。
論文 参考訳(メタデータ) (2020-07-21T23:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。