論文の概要: Noisy PDE Training Requires Bigger PINNs
- arxiv url: http://arxiv.org/abs/2507.06967v1
- Date: Wed, 09 Jul 2025 15:58:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.651846
- Title: Noisy PDE Training Requires Bigger PINNs
- Title(参考訳): ノイズの多いPDEトレーニングは、より大きなPINNを必要とする
- Authors: Sebastien Andre-Sloan, Anirbit Mukherjee, Matthew Colbrook,
- Abstract要約: PINNは騒音条件下では$sigma2$以下で経験的リスクを達成できることを示す。
ケーススタディとして、ハミルトン-ヤコビ・ベルマン(HJB)PDEに適用されたPINNについて検討する。
- 参考スコア(独自算出の注目度): 0.20482269513546453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-Informed Neural Networks (PINNs) are increasingly used to approximate solutions of partial differential equations (PDEs), especially in high dimensions. In real-world applications, data samples are noisy, so it is important to know when a predictor can still achieve low empirical risk. However, little is known about the conditions under which a PINN can do so effectively. We prove a lower bound on the size of neural networks required for the supervised PINN empirical risk to fall below the variance of noisy supervision labels. Specifically, if a predictor achieves an empirical risk $O(\eta)$ below $\sigma^2$ (variance of supervision data), then necessarily $d_N\log d_N\gtrsim N_s \eta^2$, where $N_s$ is the number of samples and $d_N$ is the number of trainable parameters of the PINN. A similar constraint applies to the fully unsupervised PINN setting when boundary labels are sampled noisily. Consequently, increasing the number of noisy supervision labels alone does not provide a ``free lunch'' in reducing empirical risk. We also show empirically that PINNs can indeed achieve empirical risks below $\sigma^2$ under such conditions. As a case study, we investigate PINNs applied to the Hamilton--Jacobi--Bellman (HJB) PDE. Our findings lay the groundwork for quantitatively understanding the parameter requirements for training PINNs in the presence of noise.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解を特に高次元で近似するためにますます使われている。
実世界のアプリケーションでは、データサンプルはノイズが多いため、予測者がまだ低い経験的リスクを達成できるかどうかを知ることが重要である。
しかし、PINNが効果的に行うことができる条件についてはほとんど分かっていない。
我々は、教師付きPINN実験のリスクがノイズの多い監視ラベルのばらつきを下回るのに必要なニューラルネットワークのサイズに、より低い境界があることを証明した。
具体的には、予測者が経験的リスク$O(\eta)$以下の$\sigma^2$に達した場合、必ずしも$d_N\log d_N\gtrsim N_s \eta^2$であり、$N_s$はサンプルの数、$d_N$はPINNのトレーニング可能なパラメータの数である。
境界ラベルがノイズにサンプリングされた場合、完全に教師なしのPINN設定にも同様の制約が適用される。
したがって、ノイズの多い監督ラベルの増加だけでは、経験的リスクを低減するために「フリーランチ」を提供しない。
また、これらの条件下では、PINNが実際に$\sigma^2$以下の経験的リスクを達成できることを実証的に示す。
ケーススタディとして、ハミルトン-ヤコビ-ベルマン(HJB)PDEに適用されたPINNについて検討する。
本研究は,ノイズの有無でPINNを訓練するためのパラメータ要件を定量的に把握するための基礎研究である。
関連論文リスト
- Exact Certification of (Graph) Neural Networks Against Label Poisoning [50.87615167799367]
グラフニューラルネットワーク(GNN)におけるラベルフリップの正確な認証手法を提案する。
本稿では,ノード分類タスクにおける広範囲なGNNアーキテクチャの認証に本手法を適用した。
私たちの研究は、ニューラルネットワークによって引き起こされた毒殺攻撃に対する最初の正確な認証を提示します。
論文 参考訳(メタデータ) (2024-11-30T17:05:12Z) - Bayesian Neural Networks: A Min-Max Game Framework [1.8032347672439046]
ディープラーニングでは、ベイジアンニューラルネットワーク(BNN)がロバストネス分析の役割を担っている。
ミニマックス法を用いて保守的BNNを研究し,決定論的ニューラルネットワークの$f$と閉ループニューラルネットワークの$f+rxi$の2プレーヤゲームを定式化する。
論文 参考訳(メタデータ) (2023-11-18T17:17:15Z) - Promoting Fairness in GNNs: A Characterization of Stability [14.205512681033492]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータで動作する。
以前の研究では、GNNリプシッツ境界が安定化モデル出力に光を放つことが研究されていない。
論文 参考訳(メタデータ) (2023-09-07T11:29:16Z) - Predictive Limitations of Physics-Informed Neural Networks in Vortex
Shedding [0.0]
2Dシリンダーのまわりの流れを見て、データのないPINNは渦の沈みを予測できないことに気付きました。
データ駆動型PINNは、トレーニングデータが利用可能である間のみ渦シーディングを表示するが、データフローが停止したときに定常状態のソリューションに戻す。
複素平面上のクープマン固有値の分布は、PINNが数値的に分散し、拡散することを示唆している。
論文 参考訳(メタデータ) (2023-05-31T22:59:52Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Competitive Physics Informed Networks [8.724433470897763]
PINNはニューラルネットワークとして表現することで偏微分方程式(PDE)を解く。
我々は、この制限を克服するために、競争的PINN(CPINN)と呼ばれる敵のアプローチを定式化し、検証する。
CPINNは差別者を訓練し、PINNの誤りを予測する。
数値実験により、競争勾配降下で訓練されたCPINNは、アダムや勾配降下で訓練されたPINNよりも2桁小さくできることが示された。
論文 参考訳(メタデータ) (2022-04-23T22:01:37Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - B-PINNs: Bayesian Physics-Informed Neural Networks for Forward and
Inverse PDE Problems with Noisy Data [7.33020629757864]
本稿では,物理インフォームドニューラルネットワーク(B-PINN)を提案する。
B-PINNは、物理法則と散乱ノイズの測定の両方を利用して、アレータリック不確かさの予測と定量化を行う。
論文 参考訳(メタデータ) (2020-03-13T04:00:42Z) - Overfitting Can Be Harmless for Basis Pursuit, But Only to a Degree [20.408693108187542]
圧縮センシング文献におけるBasis Pursuit (BP) として知られる$ell$-normを最小化するオーバーフィッティング法について検討した。
広い範囲の$p$に対して、サンプル数$n$で指数関数的に増加する極限に対して、BPのモデル誤差は$p$で減少する値によって上界であることが示される。
論文 参考訳(メタデータ) (2020-02-02T20:48:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。