論文の概要: MolCAP: Molecular Chemical reActivity pretraining and
prompted-finetuning enhanced molecular representation learning
- arxiv url: http://arxiv.org/abs/2306.09187v1
- Date: Tue, 13 Jun 2023 13:48:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 14:15:58.476851
- Title: MolCAP: Molecular Chemical reActivity pretraining and
prompted-finetuning enhanced molecular representation learning
- Title(参考訳): MolCAP:分子化学反応性の事前学習と分子表現学習の促進
- Authors: Yu Wang, JingJie Zhang, Junru Jin, and Leyi Wei
- Abstract要約: MolCAPは、化学反応性(IMR)知識に基づくグラフ事前学習トランスフォーマーであり、微調整を誘導する。
MolCAPによって推進され、基礎的なグラフニューラルネットワークでさえ、以前のモデルを上回る驚くべきパフォーマンスを達成することができる。
- 参考スコア(独自算出の注目度): 3.179128580341411
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Molecular representation learning (MRL) is a fundamental task for drug
discovery. However, previous deep-learning (DL) methods focus excessively on
learning robust inner-molecular representations by mask-dominated pretraining
framework, neglecting abundant chemical reactivity molecular relationships that
have been demonstrated as the determining factor for various molecular property
prediction tasks. Here, we present MolCAP to promote MRL, a graph pretraining
Transformer based on chemical reactivity (IMR) knowledge with prompted
finetuning. Results show that MolCAP outperforms comparative methods based on
traditional molecular pretraining framework, in 13 publicly available molecular
datasets across a diversity of biomedical tasks. Prompted by MolCAP, even basic
graph neural networks are capable of achieving surprising performance that
outperforms previous models, indicating the promising prospect of applying
reactivity information for MRL. In addition, manual designed molecular templets
are potential to uncover the dataset bias. All in all, we expect our MolCAP to
gain more chemical meaningful insights for the entire process of drug
discovery.
- Abstract(参考訳): 分子表現学習(MRL)は薬物発見の基本的な課題である。
しかし、従来の深層学習(DL)手法は、様々な分子特性予測タスクの決定因子として実証された豊富な化学反応性分子関係を無視して、マスク支配事前学習フレームワークによる堅牢な分子内表現の学習に過度に重点を置いていた。
ここでは,化学反応性(IMR)の知識に基づくグラフ事前学習型トランスフォーマーであるMRLの促進を目的としたMolCAPを提案する。
以上の結果から,MolCAPは従来の分子前訓練フレームワークに基づく比較手法よりも,生物医学的タスクの多様性にまたがる13の公開分子データセットの方が優れていた。
MolCAPが提案した基本的なグラフニューラルネットワークでさえ、従来のモデルを上回る驚くべきパフォーマンスを達成でき、MRLに反応性情報を適用する見込みがあることを示している。
さらに、手動で設計された分子のアステレットは、データセットのバイアスを明らかにする可能性がある。
全体として、私たちのMolCAPは、薬物発見の全プロセスにおいて、より化学的に有意義な洞察を得られることを期待しています。
関連論文リスト
- Pre-trained Molecular Language Models with Random Functional Group Masking [54.900360309677794]
SMILESをベースとしたアンダーリネム分子アンダーリネム言語アンダーリネムモデルを提案し,特定の分子原子に対応するSMILESサブシーケンスをランダムにマスキングする。
この技術は、モデルに分子構造や特性をよりよく推測させ、予測能力を高めることを目的としている。
論文 参考訳(メタデータ) (2024-11-03T01:56:15Z) - FARM: Functional Group-Aware Representations for Small Molecules [55.281754551202326]
小型分子のための機能的グループ認識表現(FARM)について紹介する。
FARMはSMILES、自然言語、分子グラフのギャップを埋めるために設計された基礎モデルである。
MoleculeNetデータセット上でFARMを厳格に評価し、12タスク中10タスクで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-10-02T23:04:58Z) - MolTRES: Improving Chemical Language Representation Learning for Molecular Property Prediction [14.353313239109337]
MolTRESは化学言語表現学習フレームワークである。
ジェネレータと識別器のトレーニングが組み込まれており、より難しい例からモデルを学習することができる。
我々のモデルは、一般的な分子特性予測タスクにおける既存の最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2024-07-09T01:14:28Z) - MultiModal-Learning for Predicting Molecular Properties: A Framework Based on Image and Graph Structures [2.5563339057415218]
MolIGは、画像とグラフ構造に基づいて分子特性を予測するための、新しいMultiModaL分子事前学習フレームワークである。
両者の分子表現の強さを融合させる。
ベンチマークグループ内の分子特性予測に関連する下流タスクでは、パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-11-28T10:28:35Z) - MolCPT: Molecule Continuous Prompt Tuning to Generalize Molecular
Representation Learning [77.31492888819935]
分子表現学習のための「プリトレイン,プロンプト,ファインチューン」という新しいパラダイム,分子連続プロンプトチューニング(MolCPT)を提案する。
MolCPTは、事前訓練されたモデルを使用して、スタンドアロンの入力を表現的なプロンプトに投影するモチーフプロンプト関数を定義する。
いくつかのベンチマークデータセットの実験により、MollCPTは分子特性予測のために学習済みのGNNを効率的に一般化することが示された。
論文 参考訳(メタデータ) (2022-12-20T19:32:30Z) - A Molecular Multimodal Foundation Model Associating Molecule Graphs with
Natural Language [63.60376252491507]
本稿では,分子グラフとその意味的関連テキストデータから事前学習した分子マルチモーダル基礎モデルを提案する。
我々のモデルは、生物学、化学、材料、環境、医学などの分野において、AIを動力とする分野に幅広い影響を与えるだろうと考えています。
論文 参考訳(メタデータ) (2022-09-12T00:56:57Z) - Graph-based Molecular Representation Learning [59.06193431883431]
分子表現学習(MRL)は、機械学習と化学科学を結びつけるための重要なステップである。
近年、MRLは、特に深層分子グラフ学習に基づく手法において、かなりの進歩を遂げている。
論文 参考訳(メタデータ) (2022-07-08T17:43:20Z) - KPGT: Knowledge-Guided Pre-training of Graph Transformer for Molecular
Property Prediction [13.55018269009361]
我々は、分子グラフ表現学習のための新しい自己教師付き学習フレームワーク、KPGT(Knowledge-guided Pre-training of Graph Transformer)を紹介する。
KPGTは、いくつかの分子特性予測タスクにおける最先端の手法よりも優れた性能を提供することができる。
論文 参考訳(メタデータ) (2022-06-02T08:22:14Z) - Do Large Scale Molecular Language Representations Capture Important
Structural Information? [31.76876206167457]
本稿では,MoLFormerと呼ばれる効率的なトランスフォーマーエンコーダモデルのトレーニングにより得られた分子埋め込みについて述べる。
実験の結果,グラフベースおよび指紋ベースによる教師付き学習ベースラインと比較して,学習された分子表現が競合的に機能することが確認された。
論文 参考訳(メタデータ) (2021-06-17T14:33:55Z) - Few-Shot Graph Learning for Molecular Property Prediction [46.60746023179724]
分子特性予測の新しいモデルであるMeta-MGNNを提案する。
ラベルのない分子情報を利用するため、Meta-MGNNはさらに分子構造、属性ベースの自己監視モジュール、および自己注意のタスクウェイトを組み込む。
2つの公開マルチプロパティデータセットに関する広範な実験は、Meta-MGNNがさまざまな最先端のメソッドを上回っていることを示しています。
論文 参考訳(メタデータ) (2021-02-16T01:55:34Z) - Learn molecular representations from large-scale unlabeled molecules for
drug discovery [19.222413268610808]
分子プレトレーニンググラフベースのディープラーニングフレームワークmpgは、大規模なラベルなし分子から分子表現を頼りにする。
molgnetは、解釈可能な表現を生み出すために貴重な化学的洞察を捉えることができる。
MPGは、薬物発見パイプラインにおける新しいアプローチになることを約束している。
論文 参考訳(メタデータ) (2020-12-21T08:21:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。