論文の概要: Uncertainty quantification for predictions of atomistic neural networks
- arxiv url: http://arxiv.org/abs/2207.06916v1
- Date: Thu, 14 Jul 2022 13:39:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 15:00:37.863637
- Title: Uncertainty quantification for predictions of atomistic neural networks
- Title(参考訳): 原子性ニューラルネットワークの予測のための不確かさ定量化
- Authors: Luis Itza Vazquez-Salazar, Eric D. Boittier, and M. Meuwly
- Abstract要約: 本稿では、量子化学参照データに基づくトレーニングニューラルネットワーク(NN)の予測における不確かさの定量化値について検討する。
PhysNet NN のアーキテクチャを好適に修正し,キャリブレーションの定量化,予測品質,予測誤差と予測不確かさの相関性を評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The value of uncertainty quantification on predictions for trained neural
networks (NNs) on quantum chemical reference data is quantitatively explored.
For this, the architecture of the PhysNet NN was suitably modified and the
resulting model was evaluated with different metrics to quantify calibration,
quality of predictions, and whether prediction error and the predicted
uncertainty can be correlated. The results from training on the QM9 database
and evaluating data from the test set within and outside the distribution
indicate that error and uncertainty are not linearly related. The results
clarify that noise and redundancy complicate property prediction for molecules
even in cases for which changes - e.g. double bond migration in two otherwise
identical molecules - are small. The model was then applied to a real database
of tautomerization reactions. Analysis of the distance between members in
feature space combined with other parameters shows that redundant information
in the training dataset can lead to large variances and small errors whereas
the presence of similar but unspecific information returns large errors but
small variances. This was, e.g., observed for nitro-containing aliphatic chains
for which predictions were difficult although the training set contained
several examples for nitro groups bound to aromatic molecules. This underlines
the importance of the composition of the training data and provides chemical
insight into how this affects the prediction capabilities of a ML model.
Finally, the approach put forward can be used for information-based improvement
of chemical databases for target applications through active learning
optimization.
- Abstract(参考訳): 量子化学参照データにおけるトレーニングニューラルネットワーク(nns)の予測における不確実性定量化の価値を定量的に検討した。
このため、physnet nnのアーキテクチャは好適に修正され、結果として得られたモデルは、キャリブレーションの定量化、予測の質、予測誤差と予測の不確実性との相関性を異なる指標で評価された。
QM9データベースのトレーニング結果と、分布内外のテストセットからのデータ評価結果から、誤差と不確実性は線形関係がないことが示された。
その結果, 2つの同一分子中の二重結合移動が小さい場合であっても, ノイズや冗長性は分子の特性予測を複雑にすることが明らかとなった。
その後、モデルが実際のタウトマー化反応のデータベースに適用された。
特徴空間内のメンバ間の距離と他のパラメータを組み合わせることで、トレーニングデータセット内の冗長な情報は大きなばらつきと小さなエラーにつながり、類似しているが非特異的な情報の存在は大きなエラーを返すが、小さなばらつきを引き起こす。
これは例えば、芳香族分子に結合したニトロ基のいくつかの例を含むにもかかわらず、予測が難しいニトロ含脂肪鎖に対して観察された。
このことはトレーニングデータの構成の重要性を浮き彫りにし、これがMLモデルの予測能力にどのように影響するかについての化学的な洞察を提供する。
最後に、このアプローチは、アクティブラーニング最適化を通じて、ターゲットアプリケーションのための情報ベース化学データベースの改善に使用できる。
関連論文リスト
- Data-Error Scaling in Machine Learning on Natural Discrete Combinatorial Mutation-prone Sets: Case Studies on Peptides and Small Molecules [0.0]
本研究では機械学習(ML)モデルにおけるデータエラースケーリングの傾向について検討する。
典型的なデータエラースケーリングとは対照的に,学習中に不連続な単調相転移がみられた。
学習曲線を正規化するための代替戦略とミュータントに基づくシャッフルの概念を提案する。
論文 参考訳(メタデータ) (2024-05-08T16:04:50Z) - Uncertainty Quantification for Molecular Property Predictions with Graph Neural Architecture Search [2.711812013460678]
本稿では,分子特性予測のための自動不確実性定量化(UQ)手法であるAutoGNNUQを紹介する。
我々のアプローチでは、分散分解を用いてデータ(アラート)とモデル(エステミック)の不確実性を分離し、それらを減らすための貴重な洞察を提供する。
AutoGNNUQは、正確な不確実性定量化が意思決定に不可欠である薬物発見や材料科学などの領域で広く適用可能である。
論文 参考訳(メタデータ) (2023-07-19T20:03:42Z) - Transition Role of Entangled Data in Quantum Machine Learning [51.6526011493678]
エンタングルメントは量子コンピューティングを強化するリソースとして機能する。
最近の進歩は量子力学の学習に対する肯定的な影響を浮き彫りにした。
我々は、絡み合ったデータを用いて量子力学を学習するための量子no-free-lunch(NFL)定理を確立する。
論文 参考訳(メタデータ) (2023-06-06T08:06:43Z) - Learning inducing points and uncertainty on molecular data by scalable
variational Gaussian processes [0.0]
分子記述子空間における誘導点の変動学習は、2つの分子動力学データセット上でのエネルギーと原子力の予測を改善することを示す。
本研究は大規模分子結晶系に拡張し, データセットのスパース表現を効率よく学習することにより, 原子間力の予測に優れた変動GPモデルを示す。
論文 参考訳(メタデータ) (2022-07-16T10:41:41Z) - Analyzing the Effects of Handling Data Imbalance on Learned Features
from Medical Images by Looking Into the Models [50.537859423741644]
不均衡なデータセットでモデルをトレーニングすることは、学習問題にユニークな課題をもたらす可能性がある。
ニューラルネットワークの内部ユニットを深く調べて、データの不均衡処理が学習した機能にどのように影響するかを観察します。
論文 参考訳(メタデータ) (2022-04-04T09:38:38Z) - Calibrated Uncertainty for Molecular Property Prediction using Ensembles
of Message Passing Neural Networks [11.47132155400871]
我々は、分子や物質の特性を予測するために特別に設計されたメッセージパッシングニューラルネットワークを拡張した。
その結果,分子生成エネルギーのキャリブレーションの不確実性を考慮した予測モデルが得られた。
論文 参考訳(メタデータ) (2021-07-13T13:28:11Z) - When in Doubt: Neural Non-Parametric Uncertainty Quantification for
Epidemic Forecasting [70.54920804222031]
既存の予測モデルは不確実な定量化を無視し、誤校正予測をもたらす。
不確実性を考慮した時系列予測のためのディープニューラルネットワークの最近の研究にもいくつかの制限がある。
本稿では,予測タスクを確率的生成過程としてモデル化し,EPIFNPと呼ばれる機能的ニューラルプロセスモデルを提案する。
論文 参考訳(メタデータ) (2021-06-07T18:31:47Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Bayesian Graph Neural Networks for Molecular Property Prediction [15.160090982544867]
本研究では、QM9回帰データセットを用いて、有向MPNNに適用されたベイズ的手法のセットをベンチマークする。
読み出しパラメータとメッセージパッシングパラメータの両方で不確実性を捕捉すると、下流分子探索タスクにおける予測精度、キャリブレーション、性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-11-25T22:32:54Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。