論文の概要: Nutmeg and SPICE: Models and Data for Biomolecular Machine Learning
- arxiv url: http://arxiv.org/abs/2406.13112v1
- Date: Tue, 18 Jun 2024 23:54:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 23:48:36.423454
- Title: Nutmeg and SPICE: Models and Data for Biomolecular Machine Learning
- Title(参考訳): NutmegとSPICE:生体分子機械学習のためのモデルとデータ
- Authors: Peter Eastman, Benjamin P. Pritchard, John D. Chodera, Thomas E. Markland,
- Abstract要約: 機械学習ポテンシャルを学習するための量子化学計算の集合であるSPICEデータセットのバージョン2について述べる。
我々は、その上にNutmegと呼ばれるポテンシャルエネルギー関数のセットを訓練する。
彼らは、電荷と極性分子のパフォーマンスを改善するために新しいメカニズムを使用し、大規模な電荷分布の基準を提供するために、事前計算された部分電荷をモデルに注入した。
- 参考スコア(独自算出の注目度): 1.747623282473278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe version 2 of the SPICE dataset, a collection of quantum chemistry calculations for training machine learning potentials. It expands on the original dataset by adding much more sampling of chemical space and more data on non-covalent interactions. We train a set of potential energy functions called Nutmeg on it. They use a novel mechanism to improve performance on charged and polar molecules, injecting precomputed partial charges into the model to provide a reference for the large scale charge distribution. Evaluation of the new models shows they do an excellent job of reproducing energy differences between conformations, even on highly charged molecules or ones that are significantly larger than the molecules in the training set. They also produce stable molecular dynamics trajectories, and are fast enough to be useful for routine simulation of small molecules.
- Abstract(参考訳): 機械学習ポテンシャルを学習するための量子化学計算の集合であるSPICEデータセットのバージョン2について述べる。
これは、化学空間のより多くのサンプリングと非共有相互作用に関するより多くのデータを追加することで、元のデータセットを拡張している。
我々は、その上にNutmegと呼ばれるポテンシャルエネルギー関数のセットを訓練する。
彼らは、電荷と極性分子のパフォーマンスを改善するために新しいメカニズムを使用し、大規模な電荷分布の基準を提供するために、事前計算された部分電荷をモデルに注入した。
新しいモデルの評価は、高電荷の分子やトレーニングセットの分子よりもかなり大きい分子でも、コンフォメーション間のエネルギー差を再現する優れた仕事をしていることを示している。
また、安定な分子動力学軌道も生成し、小さな分子の定期的なシミュレーションに役立つほど高速である。
関連論文リスト
- Zero Shot Molecular Generation via Similarity Kernels [0.6597195879147557]
ゼロショット分子生成の新しい手法である類似性に基づく分子生成(SiMGen)を提案する。
SiMGenは時間依存の類似性カーネルと事前訓練された機械学習力場からの記述子を組み合わせて分子を生成する。
また、ユーザがSiMGenで構造をオンラインで生成できるインタラクティブなWebツールもリリースしました。
論文 参考訳(メタデータ) (2024-02-13T17:53:44Z) - Molecule Design by Latent Space Energy-Based Modeling and Gradual
Distribution Shifting [53.44684898432997]
化学的・生物学的性質が望ましい分子の生成は、薬物発見にとって重要である。
本稿では,分子の結合分布とその特性を捉える確率的生成モデルを提案する。
本手法は種々の分子設計タスクにおいて非常に強力な性能を発揮する。
論文 参考訳(メタデータ) (2023-06-09T03:04:21Z) - Towards Predicting Equilibrium Distributions for Molecular Systems with
Deep Learning [60.02391969049972]
本稿では,分子系の平衡分布を予測するために,分散グラフマー(DiG)と呼ばれる新しいディープラーニングフレームワークを導入する。
DiGはディープニューラルネットワークを用いて分子系の記述子に条件付き平衡分布に単純な分布を変換する。
論文 参考訳(メタデータ) (2023-06-08T17:12:08Z) - SPICE, A Dataset of Drug-like Molecules and Peptides for Training
Machine Learning Potentials [1.7044177326714558]
SPICEデータセットは、タンパク質と相互作用する薬物のような小さな分子のシミュレーションに関連するポテンシャルをトレーニングするための新しい量子化学データセットである。
この構造は、小さな分子、二量体、ジペプチド、および溶存アミノ酸の様々な集合に対する1100万以上のコンフォメーションを含んでいる。
15個の元素、荷電および非荷電分子、および幅広い共有結合および非共有結合相互作用を含む。
機械学習のポテンシャルのセットをトレーニングし、化学空間の広い領域にわたって化学的精度を達成できることを実証する。
論文 参考訳(メタデータ) (2022-09-21T23:02:59Z) - Exploring Chemical Space with Score-based Out-of-distribution Generation [57.15855198512551]
生成微分方程式(SDE)にアウト・オブ・ディストリビューション制御を組み込んだスコアベース拡散方式を提案する。
いくつかの新しい分子は現実世界の薬物の基本的な要件を満たしていないため、MOODは特性予測器からの勾配を利用して条件付き生成を行う。
我々はMOODがトレーニング分布を超えて化学空間を探索できることを実験的に検証し、既存の方法で見いだされた分子、そして元のトレーニングプールの上位0.01%までも生成できることを実証した。
論文 参考訳(メタデータ) (2022-06-06T06:17:11Z) - Accurate Machine Learned Quantum-Mechanical Force Fields for
Biomolecular Simulations [51.68332623405432]
分子動力学(MD)シミュレーションは、化学的および生物学的プロセスに関する原子論的な洞察を可能にする。
近年,MDシミュレーションの代替手段として機械学習力場(MLFF)が出現している。
本研究は、大規模分子シミュレーションのための正確なMLFFを構築するための一般的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-05-17T13:08:28Z) - Generating stable molecules using imitation and reinforcement learning [0.0]
カルテシアン座標における分子生成のための強化学習手法を提案する。
我々は、GDB-11データベース上での模倣学習から基本的な化学規則を学び、初期モデルを作成する。
次に、強化学習環境において、特定の統計量で条件付けられたモデルの複数のコピーをデプロイする。
論文 参考訳(メタデータ) (2021-07-11T10:18:19Z) - Using Restricted Boltzmann Machines to Model Molecular Geometries [0.0]
本稿では,ボルツマンマシンの高速学習能力と表現力を利用して,物理パラメータ群をモデル化するための新しい手法を提案する。
本稿では,Tanhアクティベーション機能に基づく新しいRBMについて紹介し,異なるアクティベーション機能を有するRBMの比較を行う。
我々は、水やエタンなどの小さな分子をモデル化するガウスRBMの能力を示す。
論文 参考訳(メタデータ) (2020-12-13T07:02:32Z) - End-to-End Differentiable Molecular Mechanics Force Field Construction [0.5269923665485903]
化学環境を知覚するためにグラフニューラルネットワークを用いる別のアプローチを提案する。
プロセス全体がモジュール化されており、モデルパラメータに関してエンドツーエンドの差別化が可能である。
本手法は, 従来の原子型を再現するだけでなく, 既存の分子力学力場を正確に再現し, 拡張することができることを示す。
論文 参考訳(メタデータ) (2020-10-02T20:59:46Z) - ASGN: An Active Semi-supervised Graph Neural Network for Molecular
Property Prediction [61.33144688400446]
本稿では,ラベル付き分子とラベルなし分子の両方を組み込んだ,アクティブ半教師付きグラフニューラルネットワーク(ASGN)を提案する。
教師モデルでは,分子構造や分子分布から情報を共同で活用する汎用表現を学習するための,新しい半教師付き学習手法を提案する。
最後に,分子多様性の観点から,フレームワーク学習全体を通して情報的データを選択するための新しい能動的学習戦略を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:22:39Z) - Self-Supervised Graph Transformer on Large-Scale Molecular Data [73.3448373618865]
分子表現学習のための新しいフレームワークGROVERを提案する。
GROVERは、分子の豊富な構造的および意味的な情報を、巨大な未標識分子データから学習することができる。
分子表現学習において、最大のGNNであり、最大のトレーニングデータセットである、1000万個の未標識分子に1億のパラメータを持つGROVERを事前訓練します。
論文 参考訳(メタデータ) (2020-06-18T08:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。