論文の概要: Constraint-Aware Neurosymbolic Uncertainty Quantification with Bayesian Deep Learning for Scientific Discovery
- arxiv url: http://arxiv.org/abs/2601.12442v1
- Date: Sun, 18 Jan 2026 14:57:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.632248
- Title: Constraint-Aware Neurosymbolic Uncertainty Quantification with Bayesian Deep Learning for Scientific Discovery
- Title(参考訳): ベイジアンディープラーニングによる科学的発見のための制約を考慮したニューロシンボリック不確かさの定量化
- Authors: Shahnawaz Alam, Mohammed Mudassir Uddin, Mohammed Kaif Pasha,
- Abstract要約: 既存の不確実な定量化手法には、象徴的な科学的知識を組み込むメカニズムが欠けている。
本稿では,識別可能なシンボル推論によるベイズ的深層学習を統一するConstraint-Aware Neurosymbolic Uncertainity Framework (CANUF)を紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scientific Artificial Intelligence (AI) applications require models that deliver trustworthy uncertainty estimates while respecting domain constraints. Existing uncertainty quantification methods lack mechanisms to incorporate symbolic scientific knowledge, while neurosymbolic approaches operate deterministically without principled uncertainty modeling. We introduce the Constraint-Aware Neurosymbolic Uncertainty Framework (CANUF), unifying Bayesian deep learning with differentiable symbolic reasoning. The architecture comprises three components: automated constraint extraction from scientific literature, probabilistic neural backbone with variational inference, and differentiable constraint satisfaction layer ensuring physical consistency. Experiments on Materials Project (140,000+ materials), QM9 molecular properties, and climate benchmarks show CANUF reduces Expected Calibration Error by 34.7% versus Bayesian neural networks while maintaining 99.2% constraint satisfaction. Ablations reveal constraint-guided recalibration contributes 18.3% performance gain, with constraint extraction achieving 91.4% precision. CANUF provides the first end-to-end differentiable pipeline simultaneously addressing uncertainty quantification, constraint satisfaction, and interpretable explanations for scientific predictions.
- Abstract(参考訳): 科学的人工知能(AI)アプリケーションは、ドメイン制約を尊重しながら信頼できる不確実性推定を提供するモデルを必要とする。
既存の不確実性定量化手法には、象徴的な科学的知識を組み込むメカニズムが欠けているが、ニューロシンボリックアプローチは原則化された不確実性モデリングなしで決定的に機能する。
本稿では,識別可能なシンボル推論によるベイズ的深層学習を統一するConstraint-Aware Neurosymbolic Uncertainity Framework (CANUF)を紹介する。
このアーキテクチャは、科学的文献からの自動制約抽出、変分推論を伴う確率論的神経バックボーン、物理的整合性を保証する微分可能な制約満足層という3つのコンポーネントから構成される。
材料プロジェクト(14万以上の材料)、QM9分子特性、気候ベンチマークの実験は、CaNUFが期待される校正誤差を、99.2%の制約満足度を維持しながら、ベイズニューラルネットワークに対して34.7%削減したことを示している。
アブレーションにより、制約誘導による再校正は18.3%のパフォーマンス向上に寄与し、制約抽出は91.4%の精度で達成された。
CANUFは、科学的予測のための不確実性定量化、制約満足度、解釈可能な説明を同時に扱う最初のエンドツーエンドの微分可能なパイプラインを提供する。
関連論文リスト
- Disentangling Aleatoric and Epistemic Uncertainty in Physics-Informed Neural Networks. Application to Insulation Material Degradation Prognostics [1.1417805445492082]
既存のPINベースの予後のアプローチは、決定論的あるいは不確実性のみを考慮し、リスク認識による意思決定に対する適合性を制限している。
この研究は、BNNと物理ベースの残差法則と事前分布を統合した、異例のベイズ物理学インフォームドニューラルネットワーク(B-PINN)フレームワークを導入する。
その結果,提案したB-PINNは,競合する手法よりも予測精度が向上し,系統的不確実性の推定精度が向上していることがわかった。
論文 参考訳(メタデータ) (2026-01-07T07:54:09Z) - Enhancing Uncertainty Estimation and Interpretability via Bayesian Non-negative Decision Layer [55.66973223528494]
本研究では, ディープニューラルネットワークを条件付きベイズ非負因子分析として再構成したベイズ非負決定層(BNDL)を開発した。
BNDLは複雑な依存関係をモデル化し、堅牢な不確実性推定を提供する。
また,BNDLが効果的に不整合学習を達成できるという理論的保証も提供する。
論文 参考訳(メタデータ) (2025-05-28T10:23:34Z) - Uncertainty Quantification for Physics-Informed Neural Networks with Extended Fiducial Inference [10.530131993583623]
科学機械学習における不確かさの定量化はますます重要になっている。
物理インフォームドニューラルネットワーク(PINN)の場合、不確実性は通常ベイズ的あるいはドロップアウト的手法を用いて定量化される。
本稿では,PINNに対する厳密な不確実性定量化を実現するために,拡張フィデューシャル推論(EFI)の枠組み内での新しい手法を提案する。
論文 参考訳(メタデータ) (2025-05-25T13:18:13Z) - Physics-constrained polynomial chaos expansion for scientific machine learning and uncertainty quantification [6.739642016124097]
本稿では,SciML(SciML)と不確実性定量化(UQ)の両タスクの実行が可能な代理モデリング手法として,物理制約付きカオス展開を提案する。
提案手法は,SciMLをUQにシームレスに統合し,その逆で,SciMLタスクの不確かさを効果的に定量化し,SciMLを利用してUQ関連タスクにおける不確実性評価を改善する。
論文 参考訳(メタデータ) (2024-02-23T06:04:15Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Calibrated Uncertainty Quantification for Operator Learning via
Conformal Prediction [95.75771195913046]
本稿では, リスク制御型量子ニューラル演算子, 分布のない有限サンプル機能キャリブレーション等式予測法を提案する。
関数領域上の点の期待値として定義されるカバレッジ率に関する理論的キャリブレーションを保証する。
2次元ダーシー流と3次元自動車表面圧力予測タスクに関する実験結果から,我々の理論的結果が検証された。
論文 参考訳(メタデータ) (2024-02-02T23:43:28Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。