論文の概要: Uncertainty Quantification for Physics-Informed Neural Networks with Extended Fiducial Inference
- arxiv url: http://arxiv.org/abs/2505.19136v1
- Date: Sun, 25 May 2025 13:18:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.929385
- Title: Uncertainty Quantification for Physics-Informed Neural Networks with Extended Fiducial Inference
- Title(参考訳): 拡張フィデューシャル推論を用いた物理インフォームドニューラルネットワークの不確かさの定量化
- Authors: Frank Shih, Zhenghao Jiang, Faming Liang,
- Abstract要約: 科学機械学習における不確かさの定量化はますます重要になっている。
物理インフォームドニューラルネットワーク(PINN)の場合、不確実性は通常ベイズ的あるいはドロップアウト的手法を用いて定量化される。
本稿では,PINNに対する厳密な不確実性定量化を実現するために,拡張フィデューシャル推論(EFI)の枠組み内での新しい手法を提案する。
- 参考スコア(独自算出の注目度): 6.80557541703437
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Uncertainty quantification (UQ) in scientific machine learning is increasingly critical as neural networks are widely adopted to tackle complex problems across diverse scientific disciplines. For physics-informed neural networks (PINNs), a prominent model in scientific machine learning, uncertainty is typically quantified using Bayesian or dropout methods. However, both approaches suffer from a fundamental limitation: the prior distribution or dropout rate required to construct honest confidence sets cannot be determined without additional information. In this paper, we propose a novel method within the framework of extended fiducial inference (EFI) to provide rigorous uncertainty quantification for PINNs. The proposed method leverages a narrow-neck hyper-network to learn the parameters of the PINN and quantify their uncertainty based on imputed random errors in the observations. This approach overcomes the limitations of Bayesian and dropout methods, enabling the construction of honest confidence sets based solely on observed data. This advancement represents a significant breakthrough for PINNs, greatly enhancing their reliability, interpretability, and applicability to real-world scientific and engineering challenges. Moreover, it establishes a new theoretical framework for EFI, extending its application to large-scale models, eliminating the need for sparse hyper-networks, and significantly improving the automaticity and robustness of statistical inference.
- Abstract(参考訳): 科学機械学習における不確実性定量化(UQ)は、ニューラルネットワークが様々な科学分野にまたがる複雑な問題に取り組むために広く採用されているため、ますます重要になっている。
科学機械学習において顕著なモデルである物理情報ニューラルネットワーク(PINN)の場合、不確実性は通常ベイズ的あるいはドロップアウト的手法を用いて定量化される。
しかし、どちらのアプローチも基本的な制限に悩まされており、誠実な信頼セットを構築するのに必要な事前の分布やドロップアウトレートは追加情報なしでは決定できない。
本稿では,拡張フィデューシャル推論(EFI)の枠組みの中で,PINNの厳密な不確実性定量化を実現するための新しい手法を提案する。
提案手法は狭小のハイパーネットワークを利用してPINNのパラメータを学習し,その不確かさを観測中の不規則なランダムエラーに基づいて定量化する。
このアプローチはベイズ法とドロップアウト法の限界を克服し、観測データのみに基づく誠実な信頼セットの構築を可能にする。
この進歩はPINNにとって大きなブレークスルーであり、その信頼性、解釈可能性、現実の科学的および工学的課題への適用性を大幅に向上させた。
さらに、EFIの新たな理論的枠組みを確立し、そのアプリケーションを大規模モデルに拡張し、スパースハイパーネットワークの必要性を排除し、統計的推論の自動性と堅牢性を大幅に改善する。
関連論文リスト
- Evidential Uncertainty Probes for Graph Neural Networks [3.5169632430086315]
グラフニューラルネットワーク(GNN)における不確実性定量化のためのプラグアンドプレイフレームワークを提案する。
Evidential Probing Network (EPN) は、学習した表現から証拠を抽出するために軽量なMulti-Layer-Perceptron (MLP) ヘッドを使用する。
EPN-regは、正確で効率的な不確実性定量化において最先端のパフォーマンスを実現し、現実世界のデプロイメントに適している。
論文 参考訳(メタデータ) (2025-03-11T07:00:54Z) - Quantifying calibration error in modern neural networks through evidence based theory [0.0]
本稿では、予測エラー(ECE)の評価に主観的論理を組み込むことにより、ニューラルネットワークの信頼性を定量化する新しい枠組みを提案する。
我々は,MNISTおよびCIFAR-10データセットを用いた実験により,信頼性が向上したことを示す。
提案されたフレームワークは、医療や自律システムといったセンシティブな分野における潜在的な応用を含む、AIモデルのより解釈可能でニュアンスな評価を提供する。
論文 参考訳(メタデータ) (2024-10-31T23:54:21Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Neural State-Space Models: Empirical Evaluation of Uncertainty
Quantification [0.0]
本稿では,ニューラル状態空間モデルを用いたシステム同定のための不確実性定量化に関する予備的結果を示す。
ベイズ確率的設定で学習問題をフレーム化し、ニューラルネットワークの重みと出力の後方分布を求める。
後部に基づいて,出力の信頼区間を構築し,潜在的に危険なアウト・オブ・ディストリビューション体制下でモデルの使用を効果的に診断できるサプライズ指標を定義する。
論文 参考訳(メタデータ) (2023-04-13T08:57:33Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。