論文の概要: Probabilistic Generative Transformer Language models for Generative
Design of Molecules
- arxiv url: http://arxiv.org/abs/2209.09406v1
- Date: Tue, 20 Sep 2022 01:51:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 19:46:31.887146
- Title: Probabilistic Generative Transformer Language models for Generative
Design of Molecules
- Title(参考訳): 分子生成設計のための確率的生成変換言語モデル
- Authors: Lai Wei, Nihang Fu, Yuqi Song, Qian Wang, Jianjun Hu
- Abstract要約: Generative Molecular Transformer (GMTransformer) は、分子の生成設計のための確率論的ニューラルネットワークモデルである。
本モデルはもともとテキスト処理のために開発された空白充填言語モデルに基づいて構築されている。
我々のモデルは、他のベースラインと比較して、高い斬新さと難解さを達成します。
- 参考スコア(独自算出の注目度): 10.412989388092084
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Self-supervised neural language models have recently found wide applications
in generative design of organic molecules and protein sequences as well as
representation learning for downstream structure classification and functional
prediction. However, most of the existing deep learning models for molecule
design usually require a big dataset and have a black-box architecture, which
makes it difficult to interpret their design logic. Here we propose Generative
Molecular Transformer (GMTransformer), a probabilistic neural network model for
generative design of molecules. Our model is built on the blank filling
language model originally developed for text processing, which has demonstrated
unique advantages in learning the "molecules grammars" with high-quality
generation, interpretability, and data efficiency. Benchmarked on the MOSES
datasets, our models achieve high novelty and Scaf compared to other baselines.
The probabilistic generation steps have the potential in tinkering molecule
design due to their capability of recommending how to modify existing molecules
with explanation, guided by the learned implicit molecule chemistry. The source
code and datasets can be accessed freely at
https://github.com/usccolumbia/GMTransformer
- Abstract(参考訳): 自己組織化されたニューラルネットワークモデルは、最近、下流構造分類と機能予測のための表現学習と同様に、有機分子やタンパク質配列の生成設計に広く応用されている。
しかしながら、分子設計のための既存のディープラーニングモデルの多くは、通常、大きなデータセットを必要とし、ブラックボックスアーキテクチャを持っているため、設計ロジックの解釈が困難である。
本稿では,分子生成設計のための確率的ニューラルネットワークモデルであるgmtransformerを提案する。
本モデルはテキスト処理用に開発された空白の充填言語モデルに基づいて構築され,高品質な生成・解釈・データ効率で「分子文法」を学習する上で,独自の利点が示された。
MOSESデータセットをベンチマークし、我々のモデルは、他のベースラインと比較して、非常に斬新さと難解さを達成します。
確率論的生成段階は、学習された暗黙の分子化学によって導かれる説明で既存の分子をどう修正するかを推奨する能力のため、分子設計を阻害する可能性がある。
ソースコードとデータセットはhttps://github.com/usccolumbia/GMTransformerで自由にアクセスできる。
関連論文リスト
- Conformation Generation using Transformer Flows [55.2480439325792]
本稿では,トランスネットワークに基づくコンフォーメーション生成のためのフローベースモデルConfFlowを提案する。
ConfFlowは、明示的な物理的制約を課すことなく、座標空間で直接サンプリングする。
ConfFlowは、最先端の学習ベースの方法と比較して、最大40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-11-16T14:42:05Z) - GraphXForm: Graph transformer for computer-aided molecular design with application to extraction [73.1842164721868]
本稿では,デコーダのみのグラフトランスフォーマアーキテクチャであるGraphXFormについて述べる。
液液抽出のための2つの溶媒設計課題について評価し,4つの最先端分子設計技術より優れていることを示した。
論文 参考訳(メタデータ) (2024-11-03T19:45:15Z) - Chemical Language Model Linker: blending text and molecules with modular adapters [2.2667044928324747]
我々は、ChemLML(ChemLML)という、軽量なアダプタベースの戦略を提案する。
ChemLMLは2つの単一ドメインモデルをブレンドし、テキスト記述から条件付き分子生成を得る。
SMILESとSELFIESのChemLMLにおける分子表現の選択は,条件付き分子生成性能に強い影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2024-10-26T13:40:13Z) - BindGPT: A Scalable Framework for 3D Molecular Design via Language Modeling and Reinforcement Learning [11.862370962277938]
本稿では,タンパク質結合部位内で3D分子を生成するために,概念的にシンプルだが強力なアプローチを用いた新規な生成モデルBindGPTを提案する。
このような単純な概念的アプローチと事前学習とスケーリングが組み合わさって、現在の最高の特殊拡散モデルよりも同等以上の性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-06-06T02:10:50Z) - Probabilistic Transformer: A Probabilistic Dependency Model for
Contextual Word Representation [52.270712965271656]
本稿では,文脈表現の新しいモデルを提案する。
モデルのグラフは変換器に似ており、依存関係と自己意識の対応性がある。
実験により,本モデルが小型・中型データセットのトランスフォーマーと競合することを示す。
論文 参考訳(メタデータ) (2023-11-26T06:56:02Z) - GIT-Mol: A Multi-modal Large Language Model for Molecular Science with
Graph, Image, and Text [25.979382232281786]
グラフ,画像,テキスト情報を統合したマルチモーダルな大規模言語モデルであるGIT-Molを紹介する。
特性予測の精度は5%-10%向上し、分子生成の妥当性は20.2%向上した。
論文 参考訳(メタデータ) (2023-08-14T03:12:29Z) - Retrieval-based Controllable Molecule Generation [63.44583084888342]
制御可能な分子生成のための検索に基づく新しいフレームワークを提案する。
我々は、与えられた設計基準を満たす分子の合成に向けて、事前学習された生成モデルを操るために、分子の小さなセットを使用します。
提案手法は生成モデルの選択に非依存であり,タスク固有の微調整は不要である。
論文 参考訳(メタデータ) (2022-08-23T17:01:16Z) - Crystal Transformer: Self-learning neural language model for Generative
and Tinkering Design of Materials [4.813020904720316]
BLMMクリスタルトランス (BLMM Crystal Transformer) は、無機材料の生成およびスティンカー設計のためのニューラルネットワークに基づく確率的生成モデルである。
89.7%の電荷中立度と84.8%の平衡電子陰性度を持つ化学的に有効な材料組成を生成することができる。
ユーザフレンドリーなWebアプリは、計算材料ドーピング用に開発され、urlwww. Materialssatlas.org/blmtinkerで自由にアクセスできる。
論文 参考訳(メタデータ) (2022-04-25T20:20:26Z) - Keeping it Simple: Language Models can learn Complex Molecular
Distributions [0.0]
本稿では,分子の複雑な分布をコンパイルすることで,複雑な生成モデリングタスクを導入する。
その結果、言語モデルは強力な生成モデルであり、複雑な分子分布を十分に学習できることを示した。
論文 参考訳(メタデータ) (2021-12-06T13:40:58Z) - Learning Latent Space Energy-Based Prior Model for Molecule Generation [59.875533935578375]
分子モデリングのためのSMILES表現を用いた潜時空間エネルギーに基づく先行モデルについて学習する。
本手法は,最先端モデルと競合する妥当性と特異性を持つ分子を生成することができる。
論文 参考訳(メタデータ) (2020-10-19T09:34:20Z) - Self-Supervised Graph Transformer on Large-Scale Molecular Data [73.3448373618865]
分子表現学習のための新しいフレームワークGROVERを提案する。
GROVERは、分子の豊富な構造的および意味的な情報を、巨大な未標識分子データから学習することができる。
分子表現学習において、最大のGNNであり、最大のトレーニングデータセットである、1000万個の未標識分子に1億のパラメータを持つGROVERを事前訓練します。
論文 参考訳(メタデータ) (2020-06-18T08:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。