論文の概要: Learning from Integral Losses in Physics Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2305.17387v1
- Date: Sat, 27 May 2023 06:46:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 19:44:59.753869
- Title: Learning from Integral Losses in Physics Informed Neural Networks
- Title(参考訳): 物理インフォームドニューラルネットワークにおける積分損失からの学習
- Authors: Ehsan Saleh, Saba Ghaffari, Timothy Bretl, Luke Olson, Matthew West
- Abstract要約: 本研究では,部分積分微分方程式の下での物理情報ネットワークのトレーニング問題に対する解を提案する。
これらの積分を偏りのない推定値に置き換えることで、偏りのある損失関数や解が導かれることを示す。
また,提案手法が提案されたことにより,多数のサンプルから推定した値に匹敵する精度で精度の高い解が得られることを示す。
- 参考スコア(独自算出の注目度): 2.810395925934944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes a solution for the problem of training physics informed
networks under partial integro-differential equations. These equations require
infinite or a large number of neural evaluations to construct a single residual
for training. As a result, accurate evaluation may be impractical, and we show
that naive approximations at replacing these integrals with unbiased estimates
lead to biased loss functions and solutions. To overcome this bias, we
investigate three types of solutions: the deterministic sampling approach, the
double-sampling trick, and the delayed target method. We consider three classes
of PDEs for benchmarking; one defining a Poisson problem with singular charges
and weak solutions, another involving weak solutions on electro-magnetic fields
and a Maxwell equation, and a third one defining a Smoluchowski coagulation
problem. Our numerical results confirm the existence of the aforementioned bias
in practice, and also show that our proposed delayed target approach can lead
to accurate solutions with comparable quality to ones estimated with a large
number of samples. Our implementation is open-source and available at
https://github.com/ehsansaleh/btspinn.
- Abstract(参考訳): 本研究では,部分積分微分方程式の下での物理情報ネットワークのトレーニング問題に対する解を提案する。
これらの方程式はトレーニングのために1つの残差を構成するために無限あるいは多量の神経評価を必要とする。
その結果、正確な評価は実用的でない可能性があり、これらの積分を偏りのない推定に置き換えるナイーブ近似が偏り損失関数と解をもたらすことを示した。
このバイアスを克服するために,決定論的サンプリング法,ダブルサンプリング法,遅延目標法という3つの方法を検討した。
ベンチマークのためのPDEの3つのクラスを考える: 1つは特異電荷と弱解を持つポアソン問題、もう1つは電磁場上の弱解とマクスウェル方程式、もう1つはスモロショフスキ凝固問題を定義する。
また,提案手法が提案されたことにより,多数のサンプルから推定した値に匹敵する精度で精度の高い解が得られることを示す。
私たちの実装はオープンソースで、https://github.com/ehsansaleh/btspinnで利用可能です。
関連論文リスト
- Approximation Theory, Computing, and Deep Learning on the Wasserstein Space [0.5735035463793009]
有限標本から無限次元空間における近似関数の挑戦について検討する。
我々の特に焦点はワッサーシュタイン距離関数(英語版)(Wasserstein distance function)に集中しており、これは関連する例である。
数値的な実装では,ニューラルネットワークをベース関数として適切に設計し,基礎関数として機能する。
論文 参考訳(メタデータ) (2023-10-30T13:59:47Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - Good Lattice Training: Physics-Informed Neural Networks Accelerated by
Number Theory [7.462336024223669]
本稿では,PINNのためのGLT(Good lattice Training)と呼ばれる新しい手法を提案する。
GLT は、少数の点や多次元空間に対しても有効であるコロケーション点の集合を提供する。
実験の結果、GLTはランダムサンプリングやラテンハイパーキューブサンプリングよりも2~20倍少ないコロケーションポイントを必要とすることがわかった。
論文 参考訳(メタデータ) (2023-07-26T00:01:21Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - Deep Graphic FBSDEs for Opinion Dynamics Stochastic Control [27.38625075499457]
本稿では,動的・コスト関数における平均場項結合を用いた意見力学の最適制御問題の解法として,スケーラブルなディープラーニング手法を提案する。
提案したフレームワークは,超大規模問題に対する将来の応用の可能性を開く。
論文 参考訳(メタデータ) (2022-04-05T22:07:32Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Computational characteristics of feedforward neural networks for solving
a stiff differential equation [0.0]
減衰系をモデル化する単純だが基本的な常微分方程式の解について検討する。
パラメータやメソッドに対して好適な選択を特定できることを示す。
全体として、ニューラルネットワークアプローチによる信頼性と正確な結果を得るために何ができるかを示すことで、この分野の現在の文献を拡張します。
論文 参考訳(メタデータ) (2020-12-03T12:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。