論文の概要: Strategies for training point distributions in physics-informed neural networks
- arxiv url: http://arxiv.org/abs/2508.13216v1
- Date: Sun, 17 Aug 2025 09:40:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.662258
- Title: Strategies for training point distributions in physics-informed neural networks
- Title(参考訳): 物理インフォームドニューラルネットワークにおける学習点分布の戦略
- Authors: Santosh Humagain, Toni Schneidereit,
- Abstract要約: 物理インフォームドニューラルネットワークは、それらの構造と与えられた条件を直接損失関数に組み込むことで微分方程式の近似にアプローチする。
本稿では,本手法のコアコンポーネントであるトレーニングポイント分布について検討し,評価する。
その結果, 学習点が解の精度に与える影響が示され, 微分方程式の特性に関係している証拠が得られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-informed neural networks approach the approximation of differential equations by directly incorporating their structure and given conditions in a loss function. This enables conditions like, e.g., invariants to be easily added during the modelling phase. In addition, the approach can be considered as mesh free and can be utilised to compute solutions on arbitrary grids after the training phase. Therefore, physics-informed neural networks are emerging as a promising alternative to solving differential equations with methods from numerical mathematics. However, their performance highly depends on a large variety of factors. In this paper, we systematically investigate and evaluate a core component of the approach, namely the training point distribution. We test two ordinary and two partial differential equations with five strategies for training data generation and shallow network architectures, with one and two hidden layers. In addition to common distributions, we introduce sine-based training points, which are motivated by the construction of Chebyshev nodes. The results are challenged by using certain parameter combinations like, e.g., random and fixed-seed weight initialisation for reproducibility. The results show the impact of the training point distributions on the solution accuracy and we find evidence that they are connected to the characteristics of the differential equation.
- Abstract(参考訳): 物理インフォームドニューラルネットワークは、それらの構造と与えられた条件を直接損失関数に組み込むことで微分方程式の近似にアプローチする。
これにより、例えば、不変量のような条件をモデリングフェーズで簡単に追加できる。
さらに、このアプローチはメッシュフリーと見なすことができ、トレーニングフェーズの後に任意のグリッド上のソリューションを計算するために利用することができる。
そのため、数理数学の手法による微分方程式の解法に代わる有望な代替として、物理情報ニューラルネットワークが出現している。
しかし、その性能は様々な要因に大きく依存している。
本稿では,本手法のコアコンポーネントであるトレーニングポイント分布を系統的に検討し,評価する。
データ生成と浅いネットワークアーキテクチャを訓練するための5つの戦略を持つ2つの常微分方程式と2つの偏微分方程式を1層と2層に隠蔽する。
共通分布に加えて,チェビシェフノードの構築を動機とする正弦訓練点も導入する。
この結果は、例えば、ランダムおよび固定種重み初期化のようなパラメータの組み合わせを用いて再現性を向上させることで挑戦される。
その結果, 学習点分布が解の精度に及ぼす影響を示し, 微分方程式の特性に関係していることを示す。
関連論文リスト
- Self-Supervised Coarsening of Unstructured Grid with Automatic Differentiation [55.88862563823878]
本研究では,微分可能物理の概念に基づいて,非構造格子を階層化するアルゴリズムを提案する。
多孔質媒質中のわずかに圧縮可能な流体流を制御した線形方程式と波動方程式の2つのPDE上でのアルゴリズムの性能を示す。
その結果,検討したシナリオでは,関心点におけるモデル変数のダイナミクスを保ちながら,格子点数を最大10倍に削減した。
論文 参考訳(メタデータ) (2025-07-24T11:02:13Z) - Enabling Automatic Differentiation with Mollified Graph Neural Operators [75.3183193262225]
本稿では,任意の測地上での自動微分とエンフェクサクタクティック勾配を計算するための最初の手法であるモリファイドグラフニューラル演算子 (mGNO) を提案する。
正規格子上のPDEの例では、mGNOとオートグレードの組み合わせにより、L2相対データの誤差は有限差に比べて20倍減少した。
また、物理損失のみを使用し、有限差分に必要な分解能よりもはるかに低い精度で、非構造化点雲上のPDEをシームレスに解くことができる。
論文 参考訳(メタデータ) (2025-04-11T06:16:30Z) - Solving partial differential equations with sampled neural networks [1.8590821261905535]
偏微分方程式(PDE)に対する解の近似は計算科学や工学において重要な問題である。
データに依存しない確率分布から、アンザッツネットワークの隠れた重みとバイアスをサンプリングすることで、両課題を進展させる方法について論じる。
論文 参考訳(メタデータ) (2024-05-31T14:24:39Z) - Automatic Differentiation is Essential in Training Neural Networks for Solving Differential Equations [7.890817997914349]
ニューラルネットワークに基づくアプローチは、最近、科学と工学における偏微分方程式(PDE)の解法において大きな可能性を示している。
PDEのためのニューラルネットワーク手法の利点の1つは、その自動微分(AD)にある。
本稿では、ニューラルネットワークのトレーニングにおけるADの利点を定量的に示す。
論文 参考訳(メタデータ) (2024-05-23T02:01:05Z) - Physics-Informed Generator-Encoder Adversarial Networks with Latent
Space Matching for Stochastic Differential Equations [14.999611448900822]
微分方程式における前方・逆・混合問題に対処するために,新しい物理情報ニューラルネットワークのクラスを提案する。
我々のモデルは、ジェネレータとエンコーダの2つのキーコンポーネントで構成され、どちらも勾配降下によって交互に更新される。
従来の手法とは対照的に、より低次元の潜在特徴空間内で機能する間接マッチングを用いる。
論文 参考訳(メタデータ) (2023-11-03T04:29:49Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Unsupervised Learning of Solutions to Differential Equations with
Generative Adversarial Networks [1.1470070927586016]
本研究では,教師なしニューラルネットワークを用いた微分方程式の解法を開発した。
差分方程式GAN (DEQGAN) と呼ばれる手法は, 平均二乗誤差を桁違いに低減できることを示す。
論文 参考訳(メタデータ) (2020-07-21T23:36:36Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。