論文の概要: Extrapolation to complete basis-set limit in density-functional theory
by quantile random-forest models
- arxiv url: http://arxiv.org/abs/2303.14760v3
- Date: Thu, 1 Jun 2023 12:22:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 23:55:20.747485
- Title: Extrapolation to complete basis-set limit in density-functional theory
by quantile random-forest models
- Title(参考訳): 数量体ランダムフォレストモデルによる密度汎関数理論の完全基底集合極限の補間
- Authors: Daniel T. Speckhard, Christian Carbogno, Luca Ghiringhelli, Sven
Lubeck, Matthias Scheffler, Claudia Draxl
- Abstract要約: CBS限界に対する有限基底サイズの計算を外挿する機械学習モデルを見いだす。
完全収束計算に対する全エネルギー補正を推定するために、量子ランダムフォレストモデルを用いる。
提案手法は予測間隔も提供し,モデルの予測の不確かさを定量化する。
- 参考スコア(独自算出の注目度): 0.41104099603771493
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The numerical precision of density-functional-theory (DFT) calculations
depends on a variety of computational parameters, one of the most critical
being the basis-set size. The ultimate precision is reached with an infinitely
large basis set, i.e., in the limit of a complete basis set (CBS). Our aim in
this work is to find a machine-learning model that extrapolates finite
basis-size calculations to the CBS limit. We start with a data set of 63 binary
solids investigated with two all-electron DFT codes, exciting and FHI-aims,
which employ very different types of basis sets. A quantile-random-forest model
is used to estimate the total-energy correction with respect to a fully
converged calculation as a function of the basis-set size. The random-forest
model achieves a symmetric mean absolute percentage error of lower than 25% for
both codes and outperforms previous approaches in the literature. Our approach
also provides prediction intervals, which quantify the uncertainty of the
models' predictions.
- Abstract(参考訳): 密度汎関数理論(DFT)計算の数値的精度は、基底セットのサイズがもっとも重要である様々な計算パラメータに依存する。
最終的な精度は無限に大きな基底集合、すなわち完全な基底集合(CBS)の極限で到達する。
本研究の目的は, 有限基底サイズ計算をCBS限界まで外挿する機械学習モデルを見つけることである。
2つの全電子DFT符号(エキサイティングとFHIエイム)で調べられた63個のバイナリソリッドのデータセットから始める。
基礎集合サイズの関数としての完全収束計算に対する総エネルギー補正を量的ランダム森モデルを用いて推定する。
ランダムフォレストモデルでは、符号の25%未満の対称平均絶対パーセンテージ誤差を達成し、文献における従来のアプローチを上回っている。
提案手法は予測間隔も提供し,モデルの予測の不確かさを定量化する。
関連論文リスト
- Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Data-freeWeight Compress and Denoise for Large Language Models [101.53420111286952]
パラメータ行列を圧縮する手法として,データフリーなジョイントランクk近似を提案する。
キャリブレーションデータなしで、元の性能の93.43%を維持しながら80%のパラメータのモデルプルーニングを実現する。
論文 参考訳(メタデータ) (2024-02-26T05:51:47Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Wasserstein Distributional Learning [5.830831796910439]
Wasserstein Distributional Learning (WDL)はフレキシブルな密度オンスカラー回帰モデリングフレームワークである。
WDLは, 条件密度の非線形依存性をよりよく特徴付け, 明らかにする。
シミュレーションと実世界の応用を通してWDLフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-09-12T02:32:17Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Scaling Up Machine Learning For Quantum Field Theory with Equivariant
Continuous Flows [3.464871689508835]
物理学における量子場理論の高次元確率分布からサンプリングするための連続正規化フローを提案する。
我々は,このモデルを$phi4$理論で検証し,サンプリング効率において実NVPベースラインを体系的に上回ることを示す。
論文 参考訳(メタデータ) (2021-10-06T11:48:34Z) - Flexible Model Aggregation for Quantile Regression [92.63075261170302]
量子回帰は、予測の不確実性を定量化する必要性によって動機付けられた統計学習の基本的な問題である。
条件付き量子モデルの任意の数を集約する手法について検討する。
この論文で検討するモデルはすべて、現代のディープラーニングツールキットに適合します。
論文 参考訳(メタデータ) (2021-02-26T23:21:16Z) - Slice Sampling for General Completely Random Measures [74.24975039689893]
本稿では, 後続推定のためのマルコフ連鎖モンテカルロアルゴリズムについて, 補助スライス変数を用いてトランケーションレベルを適応的に設定する。
提案アルゴリズムの有効性は、いくつかの一般的な非パラメトリックモデルで評価される。
論文 参考訳(メタデータ) (2020-06-24T17:53:53Z) - On Compression Principle and Bayesian Optimization for Neural Networks [0.0]
本稿では,全てのデータとモデル定義の合計圧縮メッセージ長を最小化しつつ,デオードビリティを保証しながら,最適な予測モデルを提案する圧縮原理を提案する。
圧縮原理によって要求される最適ネットワーク次元を求めることができる連続的な次元削減にドロップアウトが利用できることを示す。
論文 参考訳(メタデータ) (2020-06-23T03:23:47Z) - Maximum likelihood estimation and uncertainty quantification for
Gaussian process approximation of deterministic functions [10.319367855067476]
本稿は、ガウス過程の回帰の文脈において、ノイズのないデータセットを用いた最初の理論的分析の1つを提供する。
本稿では,スケールパラメータのみの最大推定がガウス過程モデルの不特定に対する顕著な適応をもたらすことを示す。
論文 参考訳(メタデータ) (2020-01-29T17:20:21Z) - Statistical Inference for Model Parameters in Stochastic Gradient
Descent [45.29532403359099]
勾配降下係数(SGD)は,その計算効率とメモリ効率から,大規模データの統計的推定に広く用いられている。
人口減少関数が強い凸であり,一定の条件を満たす場合,SGDに基づく真のモデルパラメータの統計的推測の問題について検討する。
論文 参考訳(メタデータ) (2016-10-27T07:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。