論文の概要: B-PL-PINN: Stabilizing PINN Training with Bayesian Pseudo Labeling
- arxiv url: http://arxiv.org/abs/2507.01714v1
- Date: Wed, 02 Jul 2025 13:44:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.266606
- Title: B-PL-PINN: Stabilizing PINN Training with Bayesian Pseudo Labeling
- Title(参考訳): B-PL-PINN:ベイズ擬似ラベリングによるPINNの安定化
- Authors: Kevin Innerebner, Franz M. Rohrhofer, Bernhard C. Geiger,
- Abstract要約: 前方問題に対する物理インフォームドニューラルネットワーク(PINN)のトレーニングは、しばしば深刻な収束の問題に悩まされる。
提案するアンサンブルをベイジアンPINNで置き換えること,およびPINNの後部分散の評価によりコンセンサスを評価することを提案する。
実験の結果、この数学的に原理化されたアプローチは、一連のベンチマーク問題においてアンサンブルよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 9.503773054285558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training physics-informed neural networks (PINNs) for forward problems often suffers from severe convergence issues, hindering the propagation of information from regions where the desired solution is well-defined. Haitsiukevich and Ilin (2023) proposed an ensemble approach that extends the active training domain of each PINN based on i) ensemble consensus and ii) vicinity to (pseudo-)labeled points, thus ensuring that the information from the initial condition successfully propagates to the interior of the computational domain. In this work, we suggest replacing the ensemble by a Bayesian PINN, and consensus by an evaluation of the PINN's posterior variance. Our experiments show that this mathematically principled approach outperforms the ensemble on a set of benchmark problems and is competitive with PINN ensembles trained with combinations of Adam and LBFGS.
- Abstract(参考訳): 前方問題に対する物理情報ニューラルネットワーク(PINN)の訓練は、しばしば深刻な収束の問題に悩まされ、望まれる解が適切に定義された領域からの情報の伝播を妨げる。
HaitsiukevichとIlin(2023)は、各PINNのアクティブトレーニングドメインを拡張するアンサンブルアプローチを提案した。
i)コンセンサスとアンサンブル・コンセンサス
二 計算領域の内部に初期条件からの情報がうまく伝播することを確保するため、(擬似)ラベル付き点の近傍
本研究では,このアンサンブルをベイジアンPINNで置き換えることを提案する。
実験の結果、この数学的原理によるアプローチは、一連のベンチマーク問題においてアンサンブルよりも優れており、AdamとLBFGSの組み合わせで訓練されたPINNアンサンブルと競合することがわかった。
関連論文リスト
- Plane-Wave Decomposition and Randomised Training; a Novel Path to Generalised PINNs for SHM [0.0]
物理インフォームドニューラルネットワーク(PINN)の定式化について紹介する。
PINNは、フーリエ分解の形式を学習し、ランダムに選択された境界条件の拡散に基づく訓練手法である。
論文 参考訳(メタデータ) (2025-03-31T21:37:18Z) - SetPINNs: Set-based Physics-informed Neural Networks [31.193471532024407]
ローカル依存関係を効果的にキャプチャするフレームワークであるSetPINNを紹介する。
ドメインを集合に分割して、物理法則を同時に適用しながら、局所的な依存関係をモデル化します。
合成および実世界のタスクの実験では、精度、効率、堅牢性が改善された。
論文 参考訳(メタデータ) (2024-09-30T11:41:58Z) - Rethinking Clustered Federated Learning in NOMA Enhanced Wireless
Networks [60.09912912343705]
本研究では,新しいクラスタ化フェデレーション学習(CFL)アプローチと,非独立かつ同一に分散した(非IID)データセットを統合することのメリットについて検討する。
データ分布における非IIDの度合いを測定する一般化ギャップの詳細な理論的解析について述べる。
非IID条件によって引き起こされる課題に対処する解決策は、特性の分析によって提案される。
論文 参考訳(メタデータ) (2024-03-05T17:49:09Z) - Improving Neural Additive Models with Bayesian Principles [54.29602161803093]
ニューラル加算モデル(NAM)は、個別の加算サブネットワークでキャリブレーションされた入力特徴を扱うことにより、ディープニューラルネットワークの透明性を高める。
本研究では,Laplace-approximated NAM (LA-NAMs) を開発した。
論文 参考訳(メタデータ) (2023-05-26T13:19:15Z) - Federated Compositional Deep AUC Maximization [58.25078060952361]
本研究では,曲線(AUC)のスコアを直接最適化することにより,不均衡なデータに対する新しいフェデレート学習法を開発した。
私たちの知る限りでは、このような好ましい理論的な結果を達成した最初の作品である。
論文 参考訳(メタデータ) (2023-04-20T05:49:41Z) - Error convergence and engineering-guided hyperparameter search of PINNs:
towards optimized I-FENN performance [0.0]
PINNコンポーネントの2つの重要な側面に着目し,I-FENNの厳格さと性能を向上させる。
本稿では,新しい総合的パフォーマンス指標のセットに基づく体系的な数値的アプローチを提案する。
提案された分析は、科学と工学の他の応用にも直接拡張することができる。
論文 参考訳(メタデータ) (2023-03-03T17:39:06Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。