論文の概要: Gradual Optimization Learning for Conformational Energy Minimization
- arxiv url: http://arxiv.org/abs/2311.06295v1
- Date: Sun, 5 Nov 2023 11:48:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-19 14:15:11.631413
- Title: Gradual Optimization Learning for Conformational Energy Minimization
- Title(参考訳): コンフォメーションエネルギー最小化のための段階的最適化学習
- Authors: Artem Tsypin, Leonid Ugadiarov, Kuzma Khrabrov, Manvel Avetisian,
Alexander Telepov, Egor Rumiantsev, Alexey Skrynnik, Aleksandr I. Panov,
Dmitry Vetrov, Elena Tutubalina and Artur Kadurin
- Abstract要約: ニューラルネットワークによるエネルギー最小化のためのGradual Optimization Learning Framework(GOLF)は、必要な追加データを大幅に削減する。
GOLFでトレーニングしたニューラルネットワークは,種々の薬物様分子のベンチマークにおいて,オラクルと同等に動作することを示す。
- 参考スコア(独自算出の注目度): 68.26560902257744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Molecular conformation optimization is crucial to computer-aided drug
discovery and materials design. Traditional energy minimization techniques rely
on iterative optimization methods that use molecular forces calculated by a
physical simulator (oracle) as anti-gradients. However, this is a
computationally expensive approach that requires many interactions with a
physical simulator. One way to accelerate this procedure is to replace the
physical simulator with a neural network. Despite recent progress in neural
networks for molecular conformation energy prediction, such models are prone to
distribution shift, leading to inaccurate energy minimization. We find that the
quality of energy minimization with neural networks can be improved by
providing optimization trajectories as additional training data. Still, it
takes around $5 \times 10^5$ additional conformations to match the physical
simulator's optimization quality. In this work, we present the Gradual
Optimization Learning Framework (GOLF) for energy minimization with neural
networks that significantly reduces the required additional data. The framework
consists of an efficient data-collecting scheme and an external optimizer. The
external optimizer utilizes gradients from the energy prediction model to
generate optimization trajectories, and the data-collecting scheme selects
additional training data to be processed by the physical simulator. Our results
demonstrate that the neural network trained with GOLF performs on par with the
oracle on a benchmark of diverse drug-like molecules using $50$x less
additional data.
- Abstract(参考訳): 分子コンフォメーション最適化は、コンピュータによる創薬と材料設計に不可欠である。
従来のエネルギー最小化技術は、物理シミュレータ(オークル)によって計算された分子力を反勾配として利用する反復最適化手法に依存している。
しかし、これは物理シミュレータと多くのインタラクションを必要とする計算コストの高いアプローチである。
この手順を加速する1つの方法は、物理シミュレータをニューラルネットワークに置き換えることである。
分子コンフォメーションエネルギー予測のためのニューラルネットワークの最近の進歩にもかかわらず、そのようなモデルは分布シフトを起こしやすいため、不正確なエネルギー最小化につながる。
トレーニングデータとして最適化トラジェクトリを提供することにより、ニューラルネットワークによるエネルギー最小化の質を向上させることができる。
それでも、物理シミュレータの最適化品質に合わせるために、追加のコンフォーメーションを5 \times 10^5$程度必要です。
本研究では,ニューラルネットワークを用いたエネルギー最小化のためのGradual Optimization Learning Framework(GOLF)を提案する。
このフレームワークは効率的なデータ収集スキームと外部オプティマイザで構成されている。
外部オプティマイザは、エネルギー予測モデルからの勾配を利用して最適化軌道を生成し、データ収集スキームは物理シミュレータで処理する追加のトレーニングデータを選択する。
その結果、ゴルフで訓練されたニューラルネットワークは、50ドル以下の追加データを用いて、様々な薬物様分子のベンチマークで、oracleと同等の性能を発揮することがわかった。
関連論文リスト
- Metamizer: a versatile neural optimizer for fast and accurate physics simulations [4.717325308876749]
本稿では,広範囲の物理システムを高精度で反復的に解く,新しいニューラルネットワークであるMetamizerを紹介する。
我々は,メタマイザがディープラーニングに基づくアプローチにおいて,前例のない精度で達成できることを実証した。
以上の結果から,メタミザーは将来の数値解法に大きな影響を与える可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-10T11:54:31Z) - Sparks of Quantum Advantage and Rapid Retraining in Machine Learning [0.0]
本研究では、最小パラメータで複雑な関数を表現するために、強力なニューラルネットワークアーキテクチャを最適化する。
高速再トレーニング機能を導入し、古いサンプルを再処理することなく、ネットワークを新しいデータで再トレーニングできるようにする。
量子ハードウェアとアルゴリズム最適化のさらなる進歩により、量子最適化機械学習モデルが幅広い応用をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-22T19:55:44Z) - Geometry-Informed Neural Operator for Large-Scale 3D PDEs [76.06115572844882]
大規模偏微分方程式の解演算子を学習するために,幾何インフォームド・ニューラル演算子(GINO)を提案する。
我々はGINOを訓練し、わずか500点のデータポイントで車両表面の圧力を予測することに成功した。
論文 参考訳(メタデータ) (2023-09-01T16:59:21Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Physics Informed Piecewise Linear Neural Networks for Process
Optimization [0.0]
ニューラルネットワークモデルに埋め込まれた最適化問題に対して,物理情報を用いた線形ニューラルネットワークモデルの更新が提案されている。
すべてのケースにおいて、物理インフォームドトレーニングニューラルネットワークに基づく最適結果は、大域的最適性に近い。
論文 参考訳(メタデータ) (2023-02-02T10:14:54Z) - HOAX: A Hyperparameter Optimization Algorithm Explorer for Neural
Networks [0.0]
光誘起過程を研究するための軌道に基づく手法のボトルネックは、今でも膨大な数の電子構造計算である。
本稿では,人工知能の領域から借用した機械学習アルゴリズムと手法を用いることにより,電子構造計算の量を劇的に削減する革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2023-02-01T11:12:35Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Enhanced data efficiency using deep neural networks and Gaussian
processes for aerodynamic design optimization [0.0]
随伴型最適化法は空気力学的形状設計において魅力的である。
複数の最適化問題が解決されている場合、それらは違法に高価になる可能性がある。
本稿では,高コストな随伴解法に取って代わる機械学習を実現するサロゲートベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-15T15:09:21Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。