論文の概要: Learning from Integral Losses in Physics Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2305.17387v1
- Date: Sat, 27 May 2023 06:46:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 19:44:59.753869
- Title: Learning from Integral Losses in Physics Informed Neural Networks
- Title(参考訳): 物理インフォームドニューラルネットワークにおける積分損失からの学習
- Authors: Ehsan Saleh, Saba Ghaffari, Timothy Bretl, Luke Olson, Matthew West
- Abstract要約: 本研究では,部分積分微分方程式の下での物理情報ネットワークのトレーニング問題に対する解を提案する。
これらの積分を偏りのない推定値に置き換えることで、偏りのある損失関数や解が導かれることを示す。
また,提案手法が提案されたことにより,多数のサンプルから推定した値に匹敵する精度で精度の高い解が得られることを示す。
- 参考スコア(独自算出の注目度): 2.810395925934944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes a solution for the problem of training physics informed
networks under partial integro-differential equations. These equations require
infinite or a large number of neural evaluations to construct a single residual
for training. As a result, accurate evaluation may be impractical, and we show
that naive approximations at replacing these integrals with unbiased estimates
lead to biased loss functions and solutions. To overcome this bias, we
investigate three types of solutions: the deterministic sampling approach, the
double-sampling trick, and the delayed target method. We consider three classes
of PDEs for benchmarking; one defining a Poisson problem with singular charges
and weak solutions, another involving weak solutions on electro-magnetic fields
and a Maxwell equation, and a third one defining a Smoluchowski coagulation
problem. Our numerical results confirm the existence of the aforementioned bias
in practice, and also show that our proposed delayed target approach can lead
to accurate solutions with comparable quality to ones estimated with a large
number of samples. Our implementation is open-source and available at
https://github.com/ehsansaleh/btspinn.
- Abstract(参考訳): 本研究では,部分積分微分方程式の下での物理情報ネットワークのトレーニング問題に対する解を提案する。
これらの方程式はトレーニングのために1つの残差を構成するために無限あるいは多量の神経評価を必要とする。
その結果、正確な評価は実用的でない可能性があり、これらの積分を偏りのない推定に置き換えるナイーブ近似が偏り損失関数と解をもたらすことを示した。
このバイアスを克服するために,決定論的サンプリング法,ダブルサンプリング法,遅延目標法という3つの方法を検討した。
ベンチマークのためのPDEの3つのクラスを考える: 1つは特異電荷と弱解を持つポアソン問題、もう1つは電磁場上の弱解とマクスウェル方程式、もう1つはスモロショフスキ凝固問題を定義する。
また,提案手法が提案されたことにより,多数のサンプルから推定した値に匹敵する精度で精度の高い解が得られることを示す。
私たちの実装はオープンソースで、https://github.com/ehsansaleh/btspinnで利用可能です。
関連論文リスト
- Solving partial differential equations with sampled neural networks [1.8590821261905535]
偏微分方程式(PDE)に対する解の近似は計算科学や工学において重要な問題である。
データに依存しない確率分布から、アンザッツネットワークの隠れた重みとバイアスをサンプリングすることで、両課題を進展させる方法について論じる。
論文 参考訳(メタデータ) (2024-05-31T14:24:39Z) - Approximation Theory, Computing, and Deep Learning on the Wasserstein Space [0.5735035463793009]
有限標本からの無限次元空間における近似関数の挑戦に対処する。
我々の焦点はワッサーシュタイン距離関数であり、これは関連する例である。
機能近似を定義するために,機械学習に基づく3つのアプローチを採用する。
論文 参考訳(メタデータ) (2023-10-30T13:59:47Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - Good Lattice Training: Physics-Informed Neural Networks Accelerated by
Number Theory [7.462336024223669]
本稿では,PINNのためのGLT(Good lattice Training)と呼ばれる新しい手法を提案する。
GLT は、少数の点や多次元空間に対しても有効であるコロケーション点の集合を提供する。
実験の結果、GLTはランダムサンプリングやラテンハイパーキューブサンプリングよりも2~20倍少ないコロケーションポイントを必要とすることがわかった。
論文 参考訳(メタデータ) (2023-07-26T00:01:21Z) - Physics-Informed Neural Network Method for Parabolic Differential
Equations with Sharply Perturbed Initial Conditions [68.8204255655161]
急激な摂動初期条件を持つパラボラ問題に対する物理インフォームドニューラルネットワーク(PINN)モデルを開発した。
ADE解の局所的な大きな勾配は(PINNでよく見られる)ラテンハイパーキューブで方程式の残余の高効率なサンプリングを行う。
本稿では,他の方法により選択した量よりも精度の高いPINNソリューションを生成する損失関数における重みの基準を提案する。
論文 参考訳(メタデータ) (2022-08-18T05:00:24Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Computational characteristics of feedforward neural networks for solving
a stiff differential equation [0.0]
減衰系をモデル化する単純だが基本的な常微分方程式の解について検討する。
パラメータやメソッドに対して好適な選択を特定できることを示す。
全体として、ニューラルネットワークアプローチによる信頼性と正確な結果を得るために何ができるかを示すことで、この分野の現在の文献を拡張します。
論文 参考訳(メタデータ) (2020-12-03T12:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。