論文の概要: BindGPT: A Scalable Framework for 3D Molecular Design via Language Modeling and Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2406.03686v1
- Date: Thu, 6 Jun 2024 02:10:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 18:45:29.511476
- Title: BindGPT: A Scalable Framework for 3D Molecular Design via Language Modeling and Reinforcement Learning
- Title(参考訳): BindGPT:言語モデリングと強化学習による3次元分子設計のためのスケーラブルなフレームワーク
- Authors: Artem Zholus, Maksim Kuznetsov, Roman Schutski, Rim Shayakhmetov, Daniil Polykovskiy, Sarath Chandar, Alex Zhavoronkov,
- Abstract要約: 本稿では,タンパク質結合部位内で3D分子を生成するために,概念的にシンプルだが強力なアプローチを用いた新規な生成モデルBindGPTを提案する。
このような単純な概念的アプローチと事前学習とスケーリングが組み合わさって、現在の最高の特殊拡散モデルよりも同等以上の性能を発揮することを示す。
- 参考スコア(独自算出の注目度): 11.862370962277938
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generating novel active molecules for a given protein is an extremely challenging task for generative models that requires an understanding of the complex physical interactions between the molecule and its environment. In this paper, we present a novel generative model, BindGPT which uses a conceptually simple but powerful approach to create 3D molecules within the protein's binding site. Our model produces molecular graphs and conformations jointly, eliminating the need for an extra graph reconstruction step. We pretrain BindGPT on a large-scale dataset and fine-tune it with reinforcement learning using scores from external simulation software. We demonstrate how a single pretrained language model can serve at the same time as a 3D molecular generative model, conformer generator conditioned on the molecular graph, and a pocket-conditioned 3D molecule generator. Notably, the model does not make any representational equivariance assumptions about the domain of generation. We show how such simple conceptual approach combined with pretraining and scaling can perform on par or better than the current best specialized diffusion models, language models, and graph neural networks while being two orders of magnitude cheaper to sample.
- Abstract(参考訳): 与えられたタンパク質に対して新規な活性分子を生成することは、分子と環境の間の複雑な物理的相互作用を理解する必要がある生成モデルにとって非常に難しい課題である。
本稿では,タンパク質結合部位内に3次元分子を創出するための概念的単純かつ強力なアプローチを用いた新規な生成モデルBidGPTを提案する。
我々のモデルは分子グラフとコンフォメーションを共同で生成し、余分なグラフ再構成ステップを不要にする。
我々は、BindGPTを大規模データセットで事前訓練し、外部シミュレーションソフトウェアからのスコアを用いて強化学習で微調整する。
本研究では,1つの事前学習言語モデルが3次元分子生成モデル,分子グラフ上に条件付きコンフォメータジェネレータ,ポケットコンディショニングされた3次元分子ジェネレータとして同時に機能することを示す。
特に、モデルは生成領域に関する表現的同値な仮定を一切行わない。
このような単純な概念的アプローチと事前学習とスケーリングの組み合わせが、現在の最高の特殊拡散モデル、言語モデル、グラフニューラルネットワークよりも2桁も安くサンプリングできることを示す。
関連論文リスト
- Pre-trained Molecular Language Models with Random Functional Group Masking [54.900360309677794]
SMILESをベースとしたアンダーリネム分子アンダーリネム言語アンダーリネムモデルを提案し,特定の分子原子に対応するSMILESサブシーケンスをランダムにマスキングする。
この技術は、モデルに分子構造や特性をよりよく推測させ、予測能力を高めることを目的としている。
論文 参考訳(メタデータ) (2024-11-03T01:56:15Z) - Zero Shot Molecular Generation via Similarity Kernels [0.6597195879147557]
ゼロショット分子生成の新しい手法である類似性に基づく分子生成(SiMGen)を提案する。
SiMGenは時間依存の類似性カーネルと事前訓練された機械学習力場からの記述子を組み合わせて分子を生成する。
また、ユーザがSiMGenで構造をオンラインで生成できるインタラクティブなWebツールもリリースしました。
論文 参考訳(メタデータ) (2024-02-13T17:53:44Z) - Pre-training of Molecular GNNs via Conditional Boltzmann Generator [0.0]
分子配座のデータセットを用いた分子GNNの事前学習法を提案する。
本モデルは,既存の事前学習法よりも分子特性の予測性能がよいことを示す。
論文 参考訳(メタデータ) (2023-12-20T15:30:15Z) - Molecule Design by Latent Space Energy-Based Modeling and Gradual
Distribution Shifting [53.44684898432997]
化学的・生物学的性質が望ましい分子の生成は、薬物発見にとって重要である。
本稿では,分子の結合分布とその特性を捉える確率的生成モデルを提案する。
本手法は種々の分子設計タスクにおいて非常に強力な性能を発揮する。
論文 参考訳(メタデータ) (2023-06-09T03:04:21Z) - Learning Joint 2D & 3D Diffusion Models for Complete Molecule Generation [32.66694406638287]
本研究では, 原子型, 正式な電荷, 結合情報, および3次元座標を持つ分子を生成する結合2Dおよび3D拡散モデル(JODO)を提案する。
我々のモデルは、単一または複数の量子特性をターゲットにした逆分子設計のために拡張することもできる。
論文 参考訳(メタデータ) (2023-05-21T04:49:53Z) - MUDiff: Unified Diffusion for Complete Molecule Generation [104.7021929437504]
本稿では,原子の特徴,2次元離散分子構造,および3次元連続分子座標を含む分子の包括的表現を生成する新しいモデルを提案する。
拡散過程を認知するための新しいグラフトランスフォーマーアーキテクチャを提案する。
我々のモデルは、安定で多様な分子を設計するための有望なアプローチであり、分子モデリングの幅広いタスクに適用できる。
論文 参考訳(メタデータ) (2023-04-28T04:25:57Z) - Probabilistic Generative Transformer Language models for Generative
Design of Molecules [10.412989388092084]
Generative Molecular Transformer (GMTransformer) は、分子の生成設計のための確率論的ニューラルネットワークモデルである。
本モデルはもともとテキスト処理のために開発された空白充填言語モデルに基づいて構築されている。
我々のモデルは、他のベースラインと比較して、高い斬新さと難解さを達成します。
論文 参考訳(メタデータ) (2022-09-20T01:51:57Z) - Keeping it Simple: Language Models can learn Complex Molecular
Distributions [0.0]
本稿では,分子の複雑な分布をコンパイルすることで,複雑な生成モデリングタスクを導入する。
その結果、言語モデルは強力な生成モデルであり、複雑な分子分布を十分に学習できることを示した。
論文 参考訳(メタデータ) (2021-12-06T13:40:58Z) - GeoMol: Torsional Geometric Generation of Molecular 3D Conformer
Ensembles [60.12186997181117]
分子グラフからの分子の3Dコンホメーラーアンサンブルの予測は、化学情報学と薬物発見の領域において重要な役割を担っている。
既存の生成モデルは、重要な分子幾何学的要素のモデリングの欠如を含むいくつかの欠点がある。
エンド・ツー・エンド、非自己回帰、SE(3)不変の機械学習手法であるGeoMolを提案し、3Dコンバータを生成する。
論文 参考訳(メタデータ) (2021-06-08T14:17:59Z) - Learning Neural Generative Dynamics for Molecular Conformation
Generation [89.03173504444415]
分子グラフから分子コンフォメーション(つまり3d構造)を生成する方法を検討した。
分子グラフから有効かつ多様なコンフォーメーションを生成する新しい確率論的枠組みを提案する。
論文 参考訳(メタデータ) (2021-02-20T03:17:58Z) - Learning Latent Space Energy-Based Prior Model for Molecule Generation [59.875533935578375]
分子モデリングのためのSMILES表現を用いた潜時空間エネルギーに基づく先行モデルについて学習する。
本手法は,最先端モデルと競合する妥当性と特異性を持つ分子を生成することができる。
論文 参考訳(メタデータ) (2020-10-19T09:34:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。