論文の概要: Bayesian Interpolating Neural Network (B-INN): a scalable and reliable Bayesian model for large-scale physical systems
- arxiv url: http://arxiv.org/abs/2601.22860v1
- Date: Fri, 30 Jan 2026 11:38:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.409723
- Title: Bayesian Interpolating Neural Network (B-INN): a scalable and reliable Bayesian model for large-scale physical systems
- Title(参考訳): ベイズ補間ニューラルネットワーク(B-INN):大規模物理システムのためのスケーラブルで信頼性の高いベイズモデル
- Authors: Chanwook Park, Brian Kim, Jiachen Guo, Wing Kam Liu,
- Abstract要約: 本稿ではベイズ補間ニューラルネットワーク(B-INN)と呼ばれるスケーラブルで信頼性の高いベイズ代理モデルを提案する。
B-INNは、高次理論とテンソル分解と交互方向アルゴリズムを組み合わせることで、予測精度を損なうことなく、効果的な次元削減を実現する。
数値実験により、B-INNは20倍から1万倍の速度で安定な不確実性推定を行うことができることが示された。
- 参考スコア(独自算出の注目度): 0.8593015118377854
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural networks and machine learning models for uncertainty quantification suffer from limited scalability and poor reliability compared to their deterministic counterparts. In industry-scale active learning settings, where generating a single high-fidelity simulation may require days or weeks of computation and produce data volumes on the order of gigabytes, they quickly become impractical. This paper proposes a scalable and reliable Bayesian surrogate model, termed the Bayesian Interpolating Neural Network (B-INN). The B-INN combines high-order interpolation theory with tensor decomposition and alternating direction algorithm to enable effective dimensionality reduction without compromising predictive accuracy. We theoretically show that the function space of a B-INN is a subset of that of Gaussian processes, while its Bayesian inference exhibits linear complexity, $\mathcal{O}(N)$, with respect to the number of training samples. Numerical experiments demonstrate that B-INNs can be from 20 times to 10,000 times faster with a robust uncertainty estimation compared to Bayesian neural networks and Gaussian processes. These capabilities make B-INN a practical foundation for uncertainty-driven active learning in large-scale industrial simulations, where computational efficiency and robust uncertainty calibration are paramount.
- Abstract(参考訳): 不確実性定量化のためのニューラルネットワークと機械学習モデルは、決定論的モデルと比較して、スケーラビリティと信頼性の不足に悩まされている。
産業規模のアクティブラーニング環境では、単一の高忠実度シミュレーションを生成するには、数日から数週間の計算を必要とし、ギガバイトのオーダーでデータボリュームを生成する必要がある。
本稿では,ベイジアン補間ニューラルネットワーク(B-INN)と呼ばれるスケーラブルで信頼性の高いベイジアンサロゲートモデルを提案する。
B-INNは、高次補間理論とテンソル分解と交互方向アルゴリズムを組み合わせることで、予測精度を損なうことなく、効果的な次元減少を可能にする。
理論的には、B-INN の函数空間はガウス過程の部分集合であり、ベイズ予想は、訓練サンプルの数に関して、線型複雑性 $\mathcal{O}(N)$ を示す。
数値実験により、B-INNはベイジアンニューラルネットワークやガウス過程と比較して頑健な不確実性推定で20倍から1万倍高速であることが示された。
これらの能力により、B-INNは大規模産業シミュレーションにおける不確実性駆動型能動学習の実践的基盤となり、計算効率とロバストな不確実性校正が最重要である。
関連論文リスト
- Quantification of Uncertainties in Probabilistic Deep Neural Network by Implementing Boosting of Variational Inference [0.38366697175402226]
Boosted Bayesian Neural Networks (BBNN)は、ニューラルネットワークの重み分布近似を強化する新しいアプローチである。
BBNNは従来のニューラルネットワークに比べて5%高い精度を実現している。
論文 参考訳(メタデータ) (2025-03-18T05:11:21Z) - Uncertainty Quantification for Multi-fidelity Simulations [0.0]
この研究は,Nektar++とXFOILを用いて,高忠実度および低忠実度数値シミュレーションデータを収集することに焦点を当てている。
リフトとドラッグの係数の計算における高い分布の利用は、精度と精度に優れていた。
不確かさ定量化における高忠実度数値シミュレーションの信頼性を最小化するために,多忠実度戦略が採用されている。
論文 参考訳(メタデータ) (2025-03-11T13:11:18Z) - Bayesian optimized deep ensemble for uncertainty quantification of deep neural networks: a system safety case study on sodium fast reactor thermal stratification modeling [10.055838489452817]
ディープ・アンサンブルはディープ・ニューラルネットワーク(DNN)における不確実性定量化(UQ)のための効率的でスケーラブルな方法である
本稿では,ベイズ最適化(BO)とBODEと呼ばれるDDEを組み合わせることによって,予測精度とUQを両立させる手法を提案する。
計算流体力学(CFD)データに基づいて学習したDensely Connected Convolutional Neural Network (DCNN) のケーススタディにBODEを適用し, 高速炉熱成層モデルにおける渦粘度を予測する。
論文 参考訳(メタデータ) (2024-12-11T21:06:50Z) - Bayesian Entropy Neural Networks for Physics-Aware Prediction [14.705526856205454]
本稿では,ベイズニューラルネットワーク(BNN)の予測に制約を加えるためのフレームワークであるBENNを紹介する。
ベンは予測値だけでなく、その微分や分散を制約し、より堅牢で信頼性の高いモデル出力を保証できる。
その結果、従来のBNNよりも大幅に改善され、現代の制約されたディープラーニング手法と比較して競争性能が向上した。
論文 参考訳(メタデータ) (2024-07-01T07:00:44Z) - Uncertainty Quantification in Multivariable Regression for Material Property Prediction with Bayesian Neural Networks [37.69303106863453]
物理インフォームドBNNにおける不確実性定量化(UQ)のアプローチを提案する。
本稿では, 鋼のクリープ破断寿命を予測するためのケーススタディを提案する。
クリープ寿命予測の最も有望なフレームワークは、マルコフ・チェイン・モンテカルロによるネットワークパラメータの後方分布の近似に基づくBNNである。
論文 参考訳(メタデータ) (2023-11-04T19:40:16Z) - Density Regression and Uncertainty Quantification with Bayesian Deep
Noise Neural Networks [4.376565880192482]
ディープニューラルネットワーク(DNN)モデルは、幅広い教師付き学習アプリケーションにおいて最先端の予測精度を達成した。
DNN予測の不確実性を正確に定量化することは、依然として難しい課題である。
本稿では,ベイジアンディープノイズニューラルネットワーク (B-DeepNoise) を提案する。ベイジアンDNNは,ランダムノイズ変数をすべての隠蔽層に拡張することにより,標準ベイジアンDNNを一般化する。
予測精度,不確実性定量化精度,不確実性定量化効率の点で優れた性能を示した。
論文 参考訳(メタデータ) (2022-06-12T02:47:29Z) - Multi-fidelity Hierarchical Neural Processes [79.0284780825048]
多要素代理モデリングは、異なるシミュレーション出力を融合させることで計算コストを削減する。
本稿では,多階層型階層型ニューラルネットワーク(MF-HNP)を提案する。
疫学および気候モデリングタスクにおけるMF-HNPの評価を行い、精度と不確実性評価の観点から競合性能を達成した。
論文 参考訳(メタデータ) (2022-06-10T04:54:13Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Exploring the Uncertainty Properties of Neural Networks' Implicit Priors
in the Infinite-Width Limit [47.324627920761685]
我々は、無限大のNNのアンサンブルに先立って関数空間をガウス過程として特徴づける最近の理論的進歩を用いる。
これにより、関数空間上の暗黙の前のNNについて、よりよく理解できます。
また,従来のNNGPを用いた分類手法の校正について検討した。
論文 参考訳(メタデータ) (2020-10-14T18:41:54Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Multi-Sample Online Learning for Probabilistic Spiking Neural Networks [43.8805663900608]
スパイキングニューラルネットワーク(SNN)は、推論と学習のための生物学的脳の効率の一部をキャプチャする。
本稿では,一般化予測最大化(GEM)に基づくオンライン学習ルールを提案する。
標準ニューロモルフィックデータセットにおける構造化された出力記憶と分類実験の結果,ログの類似性,精度,キャリブレーションの点で大きな改善が見られた。
論文 参考訳(メタデータ) (2020-07-23T10:03:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。