論文の概要: Pre-training Transformers for Molecular Property Prediction Using
Reaction Prediction
- arxiv url: http://arxiv.org/abs/2207.02724v1
- Date: Wed, 6 Jul 2022 14:51:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 17:09:41.077731
- Title: Pre-training Transformers for Molecular Property Prediction Using
Reaction Prediction
- Title(参考訳): 反応予測を用いた分子特性予測のための予訓練トランス
- Authors: Johan Broberg, Maria B{\aa}nkestad, Erik Ylip\"a\"a
- Abstract要約: トランスファーラーニングはコンピュータビジョンや自然言語処理といった分野に大きな影響を与えた。
反応データを用いた分子表現学習のための事前学習手法を提案する。
未学習のベースラインモデルと比較して,12タスクのうち5タスクに対して統計的に有意な正の効果を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Molecular property prediction is essential in chemistry, especially for drug
discovery applications. However, available molecular property data is often
limited, encouraging the transfer of information from related data. Transfer
learning has had a tremendous impact in fields like Computer Vision and Natural
Language Processing signaling for its potential in molecular property
prediction. We present a pre-training procedure for molecular representation
learning using reaction data and use it to pre-train a SMILES Transformer. We
fine-tune and evaluate the pre-trained model on 12 molecular property
prediction tasks from MoleculeNet within physical chemistry, biophysics, and
physiology and show a statistically significant positive effect on 5 of the 12
tasks compared to a non-pre-trained baseline model.
- Abstract(参考訳): 分子特性予測は化学、特に薬物発見への応用において必須である。
しかし、利用可能な分子特性データは、しばしば制限され、関連するデータからの情報の転送を促進する。
伝達学習はコンピュータビジョンや自然言語処理といった分野に大きな影響を与え、分子特性予測の可能性を秘めている。
本稿では、反応データを用いた分子表現学習のための事前学習手順を提案し、SMILES変換器の事前訓練を行う。
物理化学, 生物物理学, 生理学における分子特性予測タスク12の事前学習モデルを微調整し, 評価し, 非事前学習ベースラインモデルと比較すると, 12タスクのうち5タスクに統計的に有意な正の効果を示した。
関連論文リスト
- Pre-trained Molecular Language Models with Random Functional Group Masking [54.900360309677794]
SMILESをベースとしたアンダーリネム分子アンダーリネム言語アンダーリネムモデルを提案し,特定の分子原子に対応するSMILESサブシーケンスをランダムにマスキングする。
この技術は、モデルに分子構造や特性をよりよく推測させ、予測能力を高めることを目的としている。
論文 参考訳(メタデータ) (2024-11-03T01:56:15Z) - MolCAP: Molecular Chemical reActivity pretraining and
prompted-finetuning enhanced molecular representation learning [3.179128580341411]
MolCAPは、化学反応性(IMR)知識に基づくグラフ事前学習トランスフォーマーであり、微調整を誘導する。
MolCAPによって推進され、基礎的なグラフニューラルネットワークでさえ、以前のモデルを上回る驚くべきパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2023-06-13T13:48:06Z) - Molecule Design by Latent Space Energy-Based Modeling and Gradual
Distribution Shifting [53.44684898432997]
化学的・生物学的性質が望ましい分子の生成は、薬物発見にとって重要である。
本稿では,分子の結合分布とその特性を捉える確率的生成モデルを提案する。
本手法は種々の分子設計タスクにおいて非常に強力な性能を発揮する。
論文 参考訳(メタデータ) (2023-06-09T03:04:21Z) - MolCPT: Molecule Continuous Prompt Tuning to Generalize Molecular
Representation Learning [77.31492888819935]
分子表現学習のための「プリトレイン,プロンプト,ファインチューン」という新しいパラダイム,分子連続プロンプトチューニング(MolCPT)を提案する。
MolCPTは、事前訓練されたモデルを使用して、スタンドアロンの入力を表現的なプロンプトに投影するモチーフプロンプト関数を定義する。
いくつかのベンチマークデータセットの実験により、MollCPTは分子特性予測のために学習済みのGNNを効率的に一般化することが示された。
論文 参考訳(メタデータ) (2022-12-20T19:32:30Z) - Supervised Pretraining for Molecular Force Fields and Properties
Prediction [16.86839767858162]
本研究では, 原子電荷と3次元ジオメトリーを入力とし, 分子エネルギーをラベルとする8800万分子のデータセット上で, ニューラルネットワークを事前学習することを提案する。
実験により、スクラッチからのトレーニングと比較して、事前訓練されたモデルを微調整すると、7つの分子特性予測タスクと2つの力場タスクのパフォーマンスが大幅に向上することが示された。
論文 参考訳(メタデータ) (2022-11-23T08:36:50Z) - Graph neural networks for the prediction of molecular structure-property
relationships [59.11160990637615]
グラフニューラルネットワーク(GNN)は、分子グラフ上で直接動作する新しい機械学習手法である。
GNNは、エンドツーエンドでプロパティを学習できるため、情報記述子の必要性を回避することができる。
本稿では、分子特性予測のための2つの例を通して、GNNの基礎を説明し、GNNの応用を実証する。
論文 参考訳(メタデータ) (2022-07-25T11:30:44Z) - KPGT: Knowledge-Guided Pre-training of Graph Transformer for Molecular
Property Prediction [13.55018269009361]
我々は、分子グラフ表現学習のための新しい自己教師付き学習フレームワーク、KPGT(Knowledge-guided Pre-training of Graph Transformer)を紹介する。
KPGTは、いくつかの分子特性予測タスクにおける最先端の手法よりも優れた性能を提供することができる。
論文 参考訳(メタデータ) (2022-06-02T08:22:14Z) - Improving Molecular Representation Learning with Metric
Learning-enhanced Optimal Transport [49.237577649802034]
分子レグレッション問題に対する一般化能力を高めるために,MROTと呼ばれる新しい最適輸送ベースアルゴリズムを開発した。
MROTは最先端のモデルよりも優れており、新しい物質の発見を加速する有望な可能性を示している。
論文 参考訳(メタデータ) (2022-02-13T04:56:18Z) - Analysis of training and seed bias in small molecules generated with a
conditional graph-based variational autoencoder -- Insights for practical
AI-driven molecule generation [0.0]
活性条件付きグラフベース変分オートエンコーダ(VAE)の出力に及ぼすシードとトレーニングバイアスの影響を解析する。
グラフに基づく生成モデルは, 所望の条件付き活性と, 生成分子における好ましくない物理特性の創出に優れていた。
論文 参考訳(メタデータ) (2021-07-19T16:00:05Z) - Do Large Scale Molecular Language Representations Capture Important
Structural Information? [31.76876206167457]
本稿では,MoLFormerと呼ばれる効率的なトランスフォーマーエンコーダモデルのトレーニングにより得られた分子埋め込みについて述べる。
実験の結果,グラフベースおよび指紋ベースによる教師付き学習ベースラインと比較して,学習された分子表現が競合的に機能することが確認された。
論文 参考訳(メタデータ) (2021-06-17T14:33:55Z) - Self-Supervised Graph Transformer on Large-Scale Molecular Data [73.3448373618865]
分子表現学習のための新しいフレームワークGROVERを提案する。
GROVERは、分子の豊富な構造的および意味的な情報を、巨大な未標識分子データから学習することができる。
分子表現学習において、最大のGNNであり、最大のトレーニングデータセットである、1000万個の未標識分子に1億のパラメータを持つGROVERを事前訓練します。
論文 参考訳(メタデータ) (2020-06-18T08:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。