論文の概要: MolCAP: Molecular Chemical reActivity pretraining and
prompted-finetuning enhanced molecular representation learning
- arxiv url: http://arxiv.org/abs/2306.09187v1
- Date: Tue, 13 Jun 2023 13:48:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 14:15:58.476851
- Title: MolCAP: Molecular Chemical reActivity pretraining and
prompted-finetuning enhanced molecular representation learning
- Title(参考訳): MolCAP:分子化学反応性の事前学習と分子表現学習の促進
- Authors: Yu Wang, JingJie Zhang, Junru Jin, and Leyi Wei
- Abstract要約: MolCAPは、化学反応性(IMR)知識に基づくグラフ事前学習トランスフォーマーであり、微調整を誘導する。
MolCAPによって推進され、基礎的なグラフニューラルネットワークでさえ、以前のモデルを上回る驚くべきパフォーマンスを達成することができる。
- 参考スコア(独自算出の注目度): 3.179128580341411
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Molecular representation learning (MRL) is a fundamental task for drug
discovery. However, previous deep-learning (DL) methods focus excessively on
learning robust inner-molecular representations by mask-dominated pretraining
framework, neglecting abundant chemical reactivity molecular relationships that
have been demonstrated as the determining factor for various molecular property
prediction tasks. Here, we present MolCAP to promote MRL, a graph pretraining
Transformer based on chemical reactivity (IMR) knowledge with prompted
finetuning. Results show that MolCAP outperforms comparative methods based on
traditional molecular pretraining framework, in 13 publicly available molecular
datasets across a diversity of biomedical tasks. Prompted by MolCAP, even basic
graph neural networks are capable of achieving surprising performance that
outperforms previous models, indicating the promising prospect of applying
reactivity information for MRL. In addition, manual designed molecular templets
are potential to uncover the dataset bias. All in all, we expect our MolCAP to
gain more chemical meaningful insights for the entire process of drug
discovery.
- Abstract(参考訳): 分子表現学習(MRL)は薬物発見の基本的な課題である。
しかし、従来の深層学習(DL)手法は、様々な分子特性予測タスクの決定因子として実証された豊富な化学反応性分子関係を無視して、マスク支配事前学習フレームワークによる堅牢な分子内表現の学習に過度に重点を置いていた。
ここでは,化学反応性(IMR)の知識に基づくグラフ事前学習型トランスフォーマーであるMRLの促進を目的としたMolCAPを提案する。
以上の結果から,MolCAPは従来の分子前訓練フレームワークに基づく比較手法よりも,生物医学的タスクの多様性にまたがる13の公開分子データセットの方が優れていた。
MolCAPが提案した基本的なグラフニューラルネットワークでさえ、従来のモデルを上回る驚くべきパフォーマンスを達成でき、MRLに反応性情報を適用する見込みがあることを示している。
さらに、手動で設計された分子のアステレットは、データセットのバイアスを明らかにする可能性がある。
全体として、私たちのMolCAPは、薬物発見の全プロセスにおいて、より化学的に有意義な洞察を得られることを期待しています。
関連論文リスト
- MultiModal-Learning for Predicting Molecular Properties: A Framework
Based on Image and Graph Structures [2.792611146246963]
MolIGは、画像とグラフ構造に基づいて分子特性を予測するための、新しいMultiModaL分子事前学習フレームワークである。
両者の分子表現の強さを融合させる。
ベンチマークグループ内の分子特性予測に関連する下流タスクでは、パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-11-28T10:28:35Z) - Molecule Design by Latent Space Energy-Based Modeling and Gradual
Distribution Shifting [53.44684898432997]
化学的・生物学的性質が望ましい分子の生成は、薬物発見にとって重要である。
本稿では,分子の結合分布とその特性を捉える確率的生成モデルを提案する。
本手法は種々の分子設計タスクにおいて非常に強力な性能を発揮する。
論文 参考訳(メタデータ) (2023-06-09T03:04:21Z) - Bi-level Contrastive Learning for Knowledge-Enhanced Molecule
Representations [55.42602325017405]
本稿では,分子の2レベル構造を考慮した新しいGODE法を提案する。
異なるグラフ構造上で2つのグラフニューラルネットワーク(GNN)を事前訓練し、対照的な学習と組み合わせることで、GODEは分子構造を対応する知識グラフサブ構造と融合させる。
11の化学特性タスクを微調整した場合、我々のモデルは既存のベンチマークよりも優れており、分類タスクの平均ROC-AUCアップリフトは13.8%、回帰タスクの平均RMSE/MAEエンハンスメントは35.1%である。
論文 参考訳(メタデータ) (2023-06-02T15:49:45Z) - MolKD: Distilling Cross-Modal Knowledge in Chemical Reactions for
Molecular Property Prediction [9.100067773907403]
分子を効果的に表現する方法は、分子特性予測と薬物発見の長年の課題である。
本稿では,化学領域の知識,特に化学反応に関する知識を有効分子表現の学習に取り入れることを提案する。
分子特性予測を支援するために化学反応におけるクロスモーダル知識を希釈する新しい手法である MolKD を導入する。
論文 参考訳(メタデータ) (2023-05-03T06:01:03Z) - MolCPT: Molecule Continuous Prompt Tuning to Generalize Molecular
Representation Learning [77.31492888819935]
分子表現学習のための「プリトレイン,プロンプト,ファインチューン」という新しいパラダイム,分子連続プロンプトチューニング(MolCPT)を提案する。
MolCPTは、事前訓練されたモデルを使用して、スタンドアロンの入力を表現的なプロンプトに投影するモチーフプロンプト関数を定義する。
いくつかのベンチマークデータセットの実験により、MollCPTは分子特性予測のために学習済みのGNNを効率的に一般化することが示された。
論文 参考訳(メタデータ) (2022-12-20T19:32:30Z) - A Molecular Multimodal Foundation Model Associating Molecule Graphs with
Natural Language [63.60376252491507]
本稿では,分子グラフとその意味的関連テキストデータから事前学習した分子マルチモーダル基礎モデルを提案する。
我々のモデルは、生物学、化学、材料、環境、医学などの分野において、AIを動力とする分野に幅広い影響を与えるだろうと考えています。
論文 参考訳(メタデータ) (2022-09-12T00:56:57Z) - Graph-based Molecular Representation Learning [59.06193431883431]
分子表現学習(MRL)は、機械学習と化学科学を結びつけるための重要なステップである。
近年、MRLは、特に深層分子グラフ学習に基づく手法において、かなりの進歩を遂げている。
論文 参考訳(メタデータ) (2022-07-08T17:43:20Z) - KPGT: Knowledge-Guided Pre-training of Graph Transformer for Molecular
Property Prediction [13.55018269009361]
我々は、分子グラフ表現学習のための新しい自己教師付き学習フレームワーク、KPGT(Knowledge-guided Pre-training of Graph Transformer)を紹介する。
KPGTは、いくつかの分子特性予測タスクにおける最先端の手法よりも優れた性能を提供することができる。
論文 参考訳(メタデータ) (2022-06-02T08:22:14Z) - Do Large Scale Molecular Language Representations Capture Important
Structural Information? [31.76876206167457]
本稿では,MoLFormerと呼ばれる効率的なトランスフォーマーエンコーダモデルのトレーニングにより得られた分子埋め込みについて述べる。
実験の結果,グラフベースおよび指紋ベースによる教師付き学習ベースラインと比較して,学習された分子表現が競合的に機能することが確認された。
論文 参考訳(メタデータ) (2021-06-17T14:33:55Z) - Few-Shot Graph Learning for Molecular Property Prediction [46.60746023179724]
分子特性予測の新しいモデルであるMeta-MGNNを提案する。
ラベルのない分子情報を利用するため、Meta-MGNNはさらに分子構造、属性ベースの自己監視モジュール、および自己注意のタスクウェイトを組み込む。
2つの公開マルチプロパティデータセットに関する広範な実験は、Meta-MGNNがさまざまな最先端のメソッドを上回っていることを示しています。
論文 参考訳(メタデータ) (2021-02-16T01:55:34Z) - Learn molecular representations from large-scale unlabeled molecules for
drug discovery [19.222413268610808]
分子プレトレーニンググラフベースのディープラーニングフレームワークmpgは、大規模なラベルなし分子から分子表現を頼りにする。
molgnetは、解釈可能な表現を生み出すために貴重な化学的洞察を捉えることができる。
MPGは、薬物発見パイプラインにおける新しいアプローチになることを約束している。
論文 参考訳(メタデータ) (2020-12-21T08:21:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。