論文の概要: Leveraging Influence Functions for Resampling Data in Physics-Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2506.16443v1
- Date: Thu, 19 Jun 2025 16:21:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.159796
- Title: Leveraging Influence Functions for Resampling Data in Physics-Informed Neural Networks
- Title(参考訳): 物理インフォームドニューラルネットワークにおけるデータ再サンプリング効果関数の活用
- Authors: Jonas R. Naujoks, Aleksander Krasowski, Moritz Weckbecker, Galip Ümit Yolcu, Thomas Wiegand, Sebastian Lapuschkin, Wojciech Samek, René P. Klausen,
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)を解くための強力なアプローチを提供する
PINNは最近、科学機械学習の分野で貴重なツールとして登場した。
- 参考スコア(独自算出の注目度): 45.752780408098765
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Physics-informed neural networks (PINNs) offer a powerful approach to solving partial differential equations (PDEs), which are ubiquitous in the quantitative sciences. Applied to both forward and inverse problems across various scientific domains, PINNs have recently emerged as a valuable tool in the field of scientific machine learning. A key aspect of their training is that the data -- spatio-temporal points sampled from the PDE's input domain -- are readily available. Influence functions, a tool from the field of explainable AI (XAI), approximate the effect of individual training points on the model, enhancing interpretability. In the present work, we explore the application of influence function-based sampling approaches for the training data. Our results indicate that such targeted resampling based on data attribution methods has the potential to enhance prediction accuracy in physics-informed neural networks, demonstrating a practical application of an XAI method in PINN training.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、量子科学においてユビキタスである偏微分方程式(PDE)を解くための強力なアプローチを提供する。
様々な科学領域の前方および逆問題に応用されたPINNは、最近、科学機械学習の分野で貴重なツールとして登場した。
彼らのトレーニングの重要な側面は、データ -- PDEの入力ドメインからサンプリングされた時空間的ポイント -- が容易に利用できることである。
インフルエンス関数は、説明可能なAI(XAI)の分野からのツールであり、個々のトレーニングポイントがモデルに与える影響を近似し、解釈可能性を高める。
本研究では,学習データに対する影響関数に基づくサンプリング手法の適用について検討する。
この結果から,データ帰属法に基づく対象再サンプリングは,物理インフォームドニューラルネットワークにおける予測精度を高める可能性が示唆され,PINNトレーニングにおけるXAI手法の実践的応用が実証された。
関連論文リスト
- AL-PINN: Active Learning-Driven Physics-Informed Neural Networks for Efficient Sample Selection in Solving Partial Differential Equations [0.0]
偏微分方程式(PDE)の解法として物理情報ニューラルネットワーク(PINN)が誕生した。
サンプル選択を動的に最適化するために、不確実性定量化(UQ)とアクティブラーニング戦略を統合したアクティブラーニング駆動型PINN(AL-PINN)を提案する。
その結果,AL-PINN は従来の PINN と比較して精度が向上し,必要なトレーニングサンプルの数を削減できた。
論文 参考訳(メタデータ) (2025-02-06T10:54:28Z) - Learnable Activation Functions in Physics-Informed Neural Networks for Solving Partial Differential Equations [0.0]
偏微分方程式(PDE)の解法として物理情報ニューラルネットワーク(PINN)が誕生した。
これらの制限は、急激な振動、鋭い勾配、複雑な境界挙動を含む問題の精度に影響を与える。
これらの課題に対する解決策として,学習可能なアクティベーション関数について検討する。
論文 参考訳(メタデータ) (2024-11-22T18:25:13Z) - PINNfluence: Influence Functions for Physics-Informed Neural Networks [47.27512105490682]
物理インフォームドニューラルネットワーク(PINN)は、物理科学における偏微分方程式への深層学習の柔軟で有望な応用として登場した。
本稿では,ポストホックのPINNの検証とデバッグに,インフルエンス関数(IF)の適用について検討する。
論文 参考訳(メタデータ) (2024-09-13T16:23:17Z) - DeltaPhi: Learning Physical Trajectory Residual for PDE Solving [54.13671100638092]
我々は,物理軌道残差学習(DeltaPhi)を提案し,定式化する。
既存のニューラル演算子ネットワークに基づく残差演算子マッピングのサロゲートモデルについて学習する。
直接学習と比較して,PDEの解法には物理残差学習が望ましいと結論づける。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Transport Equation based Physics Informed Neural Network to predict the
Yield Strength of Architected Materials [0.0]
PINNモデルは、提供されたデータセットの過度な適合を避ける能力を示す、例外的な一般化能力を示す。
この研究は、特定の実世界のアプリケーションに対してアクティベーション関数を選択しながら、性能と計算効率のバランスを打つことの重要性を強調している。
論文 参考訳(メタデータ) (2023-07-29T12:42:03Z) - Understanding and Mitigating Extrapolation Failures in Physics-Informed
Neural Networks [1.1510009152620668]
異なるタイプのPDEの代表的な集合上でのPINNの補間挙動について検討する。
その結果,外挿障害は解関数の高周波数によるものではなく,フーリエスペクトルの時間的支持の変化によるものであることがわかった。
論文 参考訳(メタデータ) (2023-06-15T20:08:42Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - On the Generalization of PINNs outside the training domain and the
Hyperparameters influencing it [1.3927943269211593]
PINNは、解データを必要としない微分方程式の解をエミュレートするように訓練されたニューラルネットワークアーキテクチャである。
トレーニング領域外におけるPINN予測の挙動を実証分析する。
PINNのアルゴリズム設定が一般化のポテンシャルに影響を及ぼすかどうかを評価し,予測に対する各効果を示す。
論文 参考訳(メタデータ) (2023-02-15T09:51:56Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。