論文の概要: Unlearning Noise in PINNs: A Selective Pruning Framework for PDE Inverse Problems
- arxiv url: http://arxiv.org/abs/2602.19967v1
- Date: Mon, 23 Feb 2026 15:29:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.882378
- Title: Unlearning Noise in PINNs: A Selective Pruning Framework for PDE Inverse Problems
- Title(参考訳): PINNにおける非学習ノイズ--PDE逆問題に対する選択的探索フレームワーク
- Authors: Yongsheng Chen, Yong Chen, Wei Guo, Xinghui Zhong,
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)によって支配される逆問題を解決するための有望な枠組みを提供する
PDE逆問題の性質の悪さはノイズに非常に敏感である。
P-PINNは、事前訓練されたPINNにおいて、破損したデータの影響を解き放つために設計された選択型プルーニングフレームワークである。
- 参考スコア(独自算出の注目度): 11.570920716097552
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-informed neural networks (PINNs) provide a promising framework for solving inverse problems governed by partial differential equations (PDEs) by integrating observational data and physical constraints in a unified optimization objective. However, the ill-posed nature of PDE inverse problems makes them highly sensitive to noise. Even a small fraction of corrupted observations can distort internal neural representations, severely impairing accuracy and destabilizing training. Motivated by recent advances in machine unlearning and structured network pruning, we propose P-PINN, a selective pruning framework designed to unlearn the influence of corrupted data in a pretrained PINN. Specifically, starting from a PINN trained on the full dataset, P-PINN evaluates a joint residual--data fidelity indicator, a weighted combination of data misfit and PDE residuals, to partition the training set into reliable and corrupted subsets. Next, we introduce a bias-based neuron importance measure that quantifies directional activation discrepancies between the two subsets, identifying neurons whose representations are predominantly driven by corrupted samples. Building on this, an iterative pruning strategy then removes noise-sensitive neurons layer by layer. The resulting pruned network is fine-tuned on the reliable data subject to the original PDE constraints, acting as a lightweight post-processing stage rather than a complete retraining. Numerical experiments on extensive PDE inverse-problem benchmarks demonstrate that P-PINN substantially improves robustness, accuracy, and training stability under noisy conditions, achieving up to a 96.6\% reduction in relative error compared with baseline PINNs. These results indicate that activation-level post hoc pruning is a promising mechanism for enhancing the reliability of physics-informed learning in noise-contaminated settings.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、観測データと物理的制約を統一最適化目的に組み込むことにより、偏微分方程式(PDE)によって支配される逆問題を解決するための有望な枠組みを提供する。
しかし、PDE逆問題の本質はノイズに非常に敏感である。
少数の破損した観察でも、内部の神経表現を歪ませたり、精度を著しく損なったり、トレーニングを不安定にしたりすることができる。
P-PINN(P-PINN)は,機械学習と構造化ネットワークプルーニングの最近の進歩に触発され,事前訓練されたPINNにおける劣化データの影響を解き放つために設計された,選択的なプルーニングフレームワークである。
具体的には、完全なデータセットに基づいてトレーニングされたPINNから、P-PINNは、データ不適合とPDE残差の重み付けを組み合わせた、ジョイント残差データ忠実度指標を評価し、トレーニングセットを信頼性と破損したサブセットに分割する。
次に,2つのサブセット間の指向性活性化の差異を定量化するバイアスに基づくニューロン重要度尺度を提案し,その表現が主に破損したサンプルによって駆動されるニューロンを同定する。
これに基づいて、反復的プルーニング戦略は、ノイズに敏感なニューロン層を層ごとに除去する。
得られたプルーンドネットワークは、元のPDE制約に従う信頼性の高いデータに基づいて微調整され、完全な再トレーニングではなく、軽量な後処理ステージとして機能する。
PDE逆プロブレムベンチマークの数値実験により、P-PINNはノイズ条件下での堅牢性、精度、トレーニング安定性を大幅に改善し、ベースラインのPINNと比較して96.6倍の相対誤差を減少させることを示した。
これらの結果から, アクティベーションレベルのポストホックプルーニングは, 騒音汚染環境下での物理インフォームドラーニングの信頼性を高めるための有望なメカニズムであることが示唆された。
関連論文リスト
- On the Role of Consistency Between Physics and Data in Physics-Informed Neural Networks [2.9455202926636175]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の代理モデル戦略として注目されている。
PINNは、測定ノイズ、離散化誤差、またはモデリング仮定による支配方程式と完全に一致しない実験データや数値データを用いて、頻繁に訓練される。
データ不整合がPINNの達成可能な精度をいかに制限するかを分析する。
論文 参考訳(メタデータ) (2026-02-11T08:00:53Z) - naPINN: Noise-Adaptive Physics-Informed Neural Networks for Recovering Physics from Corrupted Measurement [3.450547277166974]
本研究では,劣化測定から物理解を確実に回収する雑音適応型物理情報ニューラルネットワーク (naPINN) を提案する。
naPINNは、予測残差の潜在分布を学習するために、エネルギーベースのモデルをトレーニングループに組み込む。
非ガウス雑音とオフレーヤの変動率により劣化した様々なベンチマーク偏微分方程式に対するnaPINNの有効性を実証する。
論文 参考訳(メタデータ) (2026-01-30T06:03:33Z) - Game-Theoretic Gradient Control for Robust Neural Network Training [0.0]
フィードフォワードニューラルネットワーク(FFNN)は入力ノイズに弱いため、予測性能が低下する。
本研究の目的は,バックプロパゲーションを改良し,マルチエージェントゲームとして解釈し,制御対象変数の雑音化を探索することにより,FFNN雑音の頑健性を高めることである。
論文 参考訳(メタデータ) (2025-07-25T10:26:25Z) - ProPINN: Demystifying Propagation Failures in Physics-Informed Neural Networks [71.02216400133858]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法において高い期待を得た
以前の研究では、PINNの伝播不良現象が観察された。
本稿では,伝播不良とその根本原因に関する公式かつ詳細な研究について述べる。
論文 参考訳(メタデータ) (2025-02-02T13:56:38Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Robust Regression with Highly Corrupted Data via Physics Informed Neural
Networks [4.642273921499256]
物理インフォームドニューラルネットワーク(PINN)は、2つの主要な問題のクラスを解決するために提案されている。
本研究では,ノイズおよび劣化測定データから支配方程式を復元するアルゴリズムの一般化性,精度,効率性を示す。
論文 参考訳(メタデータ) (2022-10-19T15:21:05Z) - Failure-informed adaptive sampling for PINNs [5.723850818203907]
物理学インフォームドニューラルネットワーク(PINN)は、幅広い領域でPDEを解決する効果的な手法として登場した。
しかし、最近の研究では、異なるサンプリング手順でPINNの性能が劇的に変化することが示されている。
本稿では,信頼度分析の視点から,故障インフォームドPINNという適応的手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T13:34:41Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。