論文の概要: Fast emulation of density functional theory simulations using
approximate Gaussian processes
- arxiv url: http://arxiv.org/abs/2208.11302v1
- Date: Wed, 24 Aug 2022 05:09:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 12:17:28.588655
- Title: Fast emulation of density functional theory simulations using
approximate Gaussian processes
- Title(参考訳): 近似ガウス過程を用いた密度汎関数論の高速エミュレーション
- Authors: Steven Stetzler, Michael Grosskopf, Earl Lawrence
- Abstract要約: シミュレーション出力を予測する第2の統計モデルは、モデルフィッティング中の完全なシミュレーションの代わりに使用できる。
我々は,観測データを用いた密度汎関数理論(DFT)モデルパラメータのキャリブレーションにエミュレータを用いた。
これらのDFTモデルの有用性は、観測されたデータに基づいて、実験的に観測されていない核種の性質に関する予測を行うことである。
- 参考スコア(独自算出の注目度): 0.6445605125467573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fitting a theoretical model to experimental data in a Bayesian manner using
Markov chain Monte Carlo typically requires one to evaluate the model thousands
(or millions) of times. When the model is a slow-to-compute physics simulation,
Bayesian model fitting becomes infeasible. To remedy this, a second statistical
model that predicts the simulation output -- an "emulator" -- can be used in
lieu of the full simulation during model fitting. A typical emulator of choice
is the Gaussian process (GP), a flexible, non-linear model that provides both a
predictive mean and variance at each input point. Gaussian process regression
works well for small amounts of training data ($n < 10^3$), but becomes slow to
train and use for prediction when the data set size becomes large. Various
methods can be used to speed up the Gaussian process in the medium-to-large
data set regime ($n > 10^5$), trading away predictive accuracy for drastically
reduced runtime. This work examines the accuracy-runtime trade-off of several
approximate Gaussian process models -- the sparse variational GP, stochastic
variational GP, and deep kernel learned GP -- when emulating the predictions of
density functional theory (DFT) models. Additionally, we use the emulators to
calibrate, in a Bayesian manner, the DFT model parameters using observed data,
resolving the computational barrier imposed by the data set size, and compare
calibration results to previous work. The utility of these calibrated DFT
models is to make predictions, based on observed data, about the properties of
experimentally unobserved nuclides of interest e.g. super-heavy nuclei.
- Abstract(参考訳): マルコフ連鎖モンテカルロを用いたベイズ式実験データに理論モデルを適用するには、通常数千回(あるいは数百万回)のモデルを評価する必要がある。
モデルが遅くて計算可能な物理シミュレーションである場合、ベイズ模型のフィッティングは実現不可能となる。
これを改善するために、モデルフィッティング中の完全なシミュレーションの代わりに、シミュレーション出力である「エミュレータ」を予測する第2の統計モデルを使用することができる。
典型的なエミュレータはガウス過程(GP)であり、各入力点における予測平均と分散の両方を提供する柔軟な非線形モデルである。
ガウス過程の回帰は、少量のトレーニングデータ(n < 10^3$)ではうまく機能するが、データセットのサイズが大きくなると、トレーニングや予測には遅くなる。
中~大規模データセットレジーム(n > 10^5$)でのガウス過程の高速化には、さまざまな方法が利用できます。
本研究は、密度汎関数理論(dft)モデルの予測をエミュレートする際に、いくつかの近似ガウス過程モデル -- スパース変分gp、確率変分gp、ディープカーネル学習gp -- の精度と実行時間のトレードオフを検討する。
さらに,このエミュレータを用いて,観測データを用いたDFTモデルパラメータのキャリブレーションを行い,データセットサイズによる計算障壁を解消し,キャリブレーション結果と過去の作業との比較を行った。
これらの校正DFTモデルの有用性は、観測されたデータに基づいて、超重核のような実験で観測されていない核種の性質に関する予測を行うことである。
関連論文リスト
- Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Diffusion posterior sampling for simulation-based inference in tall data settings [53.17563688225137]
シミュレーションベース推論(SBI)は、入力パラメータを所定の観測に関連付ける後部分布を近似することができる。
本研究では、モデルのパラメータをより正確に推測するために、複数の観測値が利用できる、背の高いデータ拡張について考察する。
提案手法を,最近提案した各種数値実験の競合手法と比較し,数値安定性と計算コストの観点から,その優位性を実証した。
論文 参考訳(メタデータ) (2024-04-11T09:23:36Z) - Fusion of Gaussian Processes Predictions with Monte Carlo Sampling [61.31380086717422]
科学と工学において、私たちはしばしば興味のある変数の正確な予測のために設計されたモデルで作業します。
これらのモデルが現実の近似であることを認識し、複数のモデルを同じデータに適用し、結果を統合することが望ましい。
論文 参考訳(メタデータ) (2024-03-03T04:21:21Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - Learning Large-scale Subsurface Simulations with a Hybrid Graph Network
Simulator [57.57321628587564]
本研究では3次元地下流体の貯留層シミュレーションを学習するためのハイブリッドグラフネットワークシミュレータ (HGNS) を提案する。
HGNSは、流体の進化をモデル化する地下グラフニューラルネットワーク(SGNN)と、圧力の進化をモデル化する3D-U-Netで構成されている。
産業標準地下フローデータセット(SPE-10)と1100万セルを用いて,HGNSが標準地下シミュレータの18倍の推算時間を短縮できることを実証した。
論文 参考訳(メタデータ) (2022-06-15T17:29:57Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Transfer learning suppresses simulation bias in predictive models built
from sparse, multi-modal data [15.587831925516957]
科学、工学、ビジネスにおける多くの問題は、ごくわずかな観察に基づく予測を必要とする。
堅牢な予測モデルを構築するには、特に設計空間が多次元である場合、これらのスパースデータをシミュレーションデータで拡張する必要がある。
ディープラーニングの最近の開発を組み合わせて、マルチモーダルデータからより堅牢な予測モデルを構築します。
論文 参考訳(メタデータ) (2021-04-19T23:28:32Z) - Designing Accurate Emulators for Scientific Processes using
Calibration-Driven Deep Models [33.935755695805724]
Learn-by-Calibrating (LbC)は、科学応用においてエミュレータを設計するための新しいディープラーニングアプローチである。
また,LbCは広く適応された損失関数の選択に対して,一般化誤差を大幅に改善することを示した。
LbCは、小さなデータレギュレータでも高品質なエミュレータを実現し、さらに重要なことは、明確な事前条件なしで固有のノイズ構造を復元する。
論文 参考訳(メタデータ) (2020-05-05T16:54:11Z) - Scaled Vecchia approximation for fast computer-model emulation [0.6445605125467573]
我々は,大規模計算機実験のスケーラブルな解析とエミュレーションを可能にするために,空間統計学から強力なGP手法を適応・拡張する。
提案手法はスケーラビリティが高く,モデル実行回数のほぼ直線時間における推定,共同予測,シミュレーションを可能にする。
論文 参考訳(メタデータ) (2020-05-01T14:08:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。