論文の概要: MolPLA: A Molecular Pretraining Framework for Learning Cores, R-Groups
and their Linker Joints
- arxiv url: http://arxiv.org/abs/2401.16771v1
- Date: Tue, 30 Jan 2024 06:20:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 15:53:51.268038
- Title: MolPLA: A Molecular Pretraining Framework for Learning Cores, R-Groups
and their Linker Joints
- Title(参考訳): MolPLA: コアとRグループとそのリンカ関節を学習するための分子プレトレーニングフレームワーク
- Authors: Mogan Gim, Jueon Park, Soyon Park, Sanghoon Lee, Seungheun Baek,
Junhyun Lee, Ngoc-Quang Nguyen, Jaewoo Kang
- Abstract要約: MolPLAはグラフ事前学習フレームワークであり、基盤となる分解可能部分の分子を理解するために対照的な学習を利用する。
MolPLAは現在の最先端モデルに匹敵する予測可能性を示す。
MolPLAは、コアとRグループのサブ構造を区別し、分子の分解可能な領域を特定し、最適化シナリオの導出に寄与する。
- 参考スコア(独自算出の注目度): 25.4071422065085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Molecular core structures and R-groups are essential concepts in drug
development. Integration of these concepts with conventional graph pre-training
approaches can promote deeper understanding in molecules. We propose MolPLA, a
novel pre-training framework that employs masked graph contrastive learning in
understanding the underlying decomposable parts inmolecules that implicate
their core structure and peripheral R-groups. Furthermore, we formulate an
additional framework that grants MolPLA the ability to help chemists find
replaceable R-groups in lead optimization scenarios. Experimental results on
molecular property prediction show that MolPLA exhibits predictability
comparable to current state-of-the-art models. Qualitative analysis implicate
that MolPLA is capable of distinguishing core and R-group sub-structures,
identifying decomposable regions in molecules and contributing to lead
optimization scenarios by rationally suggesting R-group replacements given
various query core templates. The code implementation for MolPLA and its
pre-trained model checkpoint is available at https://github.com/dmis-lab/MolPLA
- Abstract(参考訳): 分子核構造とr-基は薬物開発において不可欠な概念である。
これらの概念と従来のグラフ事前学習アプローチの統合は、分子の深い理解を促進する。
本稿では,そのコア構造と周辺r群を包含する非可逆的部分を理解するために,マスク付きグラフコントラスト学習を用いた新しい事前学習フレームワークmolplaを提案する。
さらに、MollPLAに化学者が鉛最適化シナリオで置換可能なR-群を見つけるのに役立つ追加のフレームワークを定式化する。
分子特性予測実験の結果, MolPLA は現在の最先端モデルに匹敵する予測可能性を示した。
定性的分析は、molplaがコアとrグループのサブ構造を区別し、分子内の分解可能な領域を特定し、様々なクエリコアテンプレートを与えられたrグループ置換を合理的に提案することでリード最適化シナリオに寄与できることを示唆している。
MolPLAのコード実装と事前訓練されたモデルチェックポイントはhttps://github.com/dmis-lab/MolPLAで入手できる。
関連論文リスト
- Pre-trained Molecular Language Models with Random Functional Group Masking [54.900360309677794]
SMILESをベースとしたアンダーリネム分子アンダーリネム言語アンダーリネムモデルを提案し,特定の分子原子に対応するSMILESサブシーケンスをランダムにマスキングする。
この技術は、モデルに分子構造や特性をよりよく推測させ、予測能力を高めることを目的としている。
論文 参考訳(メタデータ) (2024-11-03T01:56:15Z) - FARM: Functional Group-Aware Representations for Small Molecules [55.281754551202326]
小型分子のための機能的グループ認識表現(FARM)について紹介する。
FARMはSMILES、自然言語、分子グラフのギャップを埋めるために設計された基礎モデルである。
MoleculeNetデータセット上でFARMを厳格に評価し、12タスク中10タスクで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-10-02T23:04:58Z) - MultiModal-Learning for Predicting Molecular Properties: A Framework Based on Image and Graph Structures [2.5563339057415218]
MolIGは、画像とグラフ構造に基づいて分子特性を予測するための、新しいMultiModaL分子事前学習フレームワークである。
両者の分子表現の強さを融合させる。
ベンチマークグループ内の分子特性予測に関連する下流タスクでは、パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-11-28T10:28:35Z) - Learning Invariant Molecular Representation in Latent Discrete Space [52.13724532622099]
本稿では,分散シフトに対する不変性とロバスト性を示す分子表現を学習するための新しい枠組みを提案する。
我々のモデルは、様々な分布シフトが存在する場合に、最先端のベースラインに対してより強力な一般化を実現する。
論文 参考訳(メタデータ) (2023-10-22T04:06:44Z) - MolCAP: Molecular Chemical reActivity pretraining and
prompted-finetuning enhanced molecular representation learning [3.179128580341411]
MolCAPは、化学反応性(IMR)知識に基づくグラフ事前学習トランスフォーマーであり、微調整を誘導する。
MolCAPによって推進され、基礎的なグラフニューラルネットワークでさえ、以前のモデルを上回る驚くべきパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2023-06-13T13:48:06Z) - Towards Predicting Equilibrium Distributions for Molecular Systems with
Deep Learning [60.02391969049972]
本稿では,分子系の平衡分布を予測するために,分散グラフマー(DiG)と呼ばれる新しいディープラーニングフレームワークを導入する。
DiGはディープニューラルネットワークを用いて分子系の記述子に条件付き平衡分布に単純な分布を変換する。
論文 参考訳(メタデータ) (2023-06-08T17:12:08Z) - Atomic and Subgraph-aware Bilateral Aggregation for Molecular
Representation Learning [57.670845619155195]
我々は、原子とサブグラフを意識したバイラテラルアグリゲーション(ASBA)と呼ばれる分子表現学習の新しいモデルを導入する。
ASBAは、両方の種類の情報を統合することで、以前の原子単位とサブグラフ単位のモデルの限界に対処する。
本手法は,分子特性予測のための表現をより包括的に学習する方法を提供する。
論文 参考訳(メタデータ) (2023-05-22T00:56:00Z) - t-SMILES: A Scalable Fragment-based Molecular Representation Framework for De Novo Molecule Generation [9.116670221263753]
本研究では, t-SMILESと呼ばれる, フレキシブル, フラグメントベース, マルチスケールな分子表現フレームワークを提案する。
フラグメント化された分子グラフから生成された全二分木上で幅優先探索を行うことにより得られるSMILES型文字列を用いて分子を記述する。
従来のSMILES、DeepSMILES、SELFIES、ベースラインモデルをゴール指向タスクで大幅に上回っている。
論文 参考訳(メタデータ) (2023-01-04T21:41:01Z) - MolCPT: Molecule Continuous Prompt Tuning to Generalize Molecular
Representation Learning [77.31492888819935]
分子表現学習のための「プリトレイン,プロンプト,ファインチューン」という新しいパラダイム,分子連続プロンプトチューニング(MolCPT)を提案する。
MolCPTは、事前訓練されたモデルを使用して、スタンドアロンの入力を表現的なプロンプトに投影するモチーフプロンプト関数を定義する。
いくつかのベンチマークデータセットの実験により、MollCPTは分子特性予測のために学習済みのGNNを効率的に一般化することが示された。
論文 参考訳(メタデータ) (2022-12-20T19:32:30Z) - Improving Molecular Contrastive Learning via Faulty Negative Mitigation
and Decomposed Fragment Contrast [17.142976840521264]
グラフニューラルネットワーク(GNN)を用いた表現の分子コントラスト学習の改善のためのiMolCLRを提案する。
実験の結果,提案手法はGNNモデルの性能を著しく向上させることがわかった。
iMolCLRは本質的に分子の類似性を推論できる足場や官能基を埋め込む。
論文 参考訳(メタデータ) (2022-02-18T18:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。