論文の概要: Molecule-Morphology Contrastive Pretraining for Transferable Molecular
Representation
- arxiv url: http://arxiv.org/abs/2305.09790v1
- Date: Thu, 27 Apr 2023 02:01:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-21 10:43:52.711139
- Title: Molecule-Morphology Contrastive Pretraining for Transferable Molecular
Representation
- Title(参考訳): 転写可能な分子表現のための分子モルフォロジーコントラスト前処理
- Authors: Cuong Q. Nguyen, Dante Pertusi, Kim M. Branson
- Abstract要約: 分子グラフと細胞形態のマルチモーダル表現を学習するためのフレームワークであるMoCoP(Moecule-Morphology Contrastive Pretraining)を紹介する。
我々は、JUMP-CPコンソーシアムのデータを用いて、MoCoPを約100K分子と600K形態素にスケールする。
この結果から,MoCoPを用いた細胞形態と分子グラフの統合により,QSARモデルの性能が著しく向上することが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Image-based profiling techniques have become increasingly popular over the
past decade for their applications in target identification,
mechanism-of-action inference, and assay development. These techniques have
generated large datasets of cellular morphologies, which are typically used to
investigate the effects of small molecule perturbagens. In this work, we extend
the impact of such dataset to improving quantitative structure-activity
relationship (QSAR) models by introducing Molecule-Morphology Contrastive
Pretraining (MoCoP), a framework for learning multi-modal representation of
molecular graphs and cellular morphologies. We scale MoCoP to approximately
100K molecules and 600K morphological profiles using data from the JUMP-CP
Consortium and show that MoCoP consistently improves performances of graph
neural networks (GNNs) on molecular property prediction tasks in ChEMBL20
across all dataset sizes. The pretrained GNNs are also evaluated on internal
GSK pharmacokinetic data and show an average improvement of 2.6% and 6.3% in
AUPRC for full and low data regimes, respectively. Our findings suggest that
integrating cellular morphologies with molecular graphs using MoCoP can
significantly improve the performance of QSAR models, ultimately expanding the
deep learning toolbox available for QSAR applications.
- Abstract(参考訳): 画像ベースのプロファイリング技術は、ターゲット識別、メカニズム・オブ・アクション推論、アッセイ開発における応用において、過去10年間で人気が高まっている。
これらの技術は細胞形態の大規模なデータセットを生成し、通常は小さな分子のパーターバゲンの影響を調べるために用いられる。
本研究では,分子グラフと細胞形態のマルチモーダル表現を学習するフレームワークであるMoCoP(Moecule-Morphology Contrastive Pretraining)を導入することで,このようなデータセットの影響を定量的構造活性関係(QSAR)モデルの改善に拡張する。
我々は、JUMP-CP Consortiumのデータを用いて、約100K分子と600K形態素プロファイルにMoCoPをスケールし、すべてのデータセットサイズでChEMBL20の分子特性予測タスクにおけるグラフニューラルネットワーク(GNN)の性能を一貫して改善することを示した。
トレーニング済みのGNNは、内部のGSK薬物動態データに基づいて評価され、フルデータおよびローデータレシエーションに対するAUPRCの平均改善率は2.6%と6.3%である。
以上の結果から,MoCoPを用いた細胞形態と分子グラフの統合はQSARモデルの性能を大幅に向上させ,最終的にQSARアプリケーションで利用可能なディープラーニングツールボックスを拡張できることが示唆された。
関連論文リスト
- Pre-trained Molecular Language Models with Random Functional Group Masking [54.900360309677794]
SMILESをベースとしたアンダーリネム分子アンダーリネム言語アンダーリネムモデルを提案し,特定の分子原子に対応するSMILESサブシーケンスをランダムにマスキングする。
この技術は、モデルに分子構造や特性をよりよく推測させ、予測能力を高めることを目的としている。
論文 参考訳(メタデータ) (2024-11-03T01:56:15Z) - FARM: Functional Group-Aware Representations for Small Molecules [55.281754551202326]
小型分子のための機能的グループ認識表現(FARM)について紹介する。
FARMはSMILES、自然言語、分子グラフのギャップを埋めるために設計された基礎モデルである。
MoleculeNetデータセット上でFARMを厳格に評価し、12タスク中10タスクで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-10-02T23:04:58Z) - MultiModal-Learning for Predicting Molecular Properties: A Framework Based on Image and Graph Structures [2.5563339057415218]
MolIGは、画像とグラフ構造に基づいて分子特性を予測するための、新しいMultiModaL分子事前学習フレームワークである。
両者の分子表現の強さを融合させる。
ベンチマークグループ内の分子特性予測に関連する下流タスクでは、パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-11-28T10:28:35Z) - Improving Molecular Properties Prediction Through Latent Space Fusion [9.912768918657354]
本稿では,最先端の化学モデルから導出した潜在空間を組み合わせた多視点手法を提案する。
分子構造をグラフとして表現するMHG-GNNの埋め込みと、化学言語に根ざしたMoLFormerの埋め込みである。
本稿では,既存の最先端手法と比較して,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-20T20:29:32Z) - Accelerating Molecular Graph Neural Networks via Knowledge Distillation [1.9116784879310031]
グラフニューラルネットワーク(GNN)の最近の進歩は、分子や分子系のより包括的なモデリングを可能にしている。
この分野は、より大規模で複雑なアーキテクチャへと進展しているため、最先端のGNNは、多くの大規模アプリケーションでほとんど禁止されている。
我々は, 方向性および同変GNNにおける隠れ表現の蒸留を容易にするKD戦略を考案し, エネルギー・力予測の回帰タスクにおけるその性能を評価する。
論文 参考訳(メタデータ) (2023-06-26T16:24:31Z) - MolCAP: Molecular Chemical reActivity pretraining and
prompted-finetuning enhanced molecular representation learning [3.179128580341411]
MolCAPは、化学反応性(IMR)知識に基づくグラフ事前学習トランスフォーマーであり、微調整を誘導する。
MolCAPによって推進され、基礎的なグラフニューラルネットワークでさえ、以前のモデルを上回る驚くべきパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2023-06-13T13:48:06Z) - Bi-level Contrastive Learning for Knowledge-Enhanced Molecule
Representations [55.42602325017405]
本稿では,分子の2レベル構造を考慮した新しいGODE法を提案する。
異なるグラフ構造上で2つのグラフニューラルネットワーク(GNN)を事前訓練し、対照的な学習と組み合わせることで、GODEは分子構造を対応する知識グラフサブ構造と融合させる。
11の化学特性タスクを微調整した場合、我々のモデルは既存のベンチマークよりも優れており、分類タスクの平均ROC-AUCアップリフトは13.8%、回帰タスクの平均RMSE/MAEエンハンスメントは35.1%である。
論文 参考訳(メタデータ) (2023-06-02T15:49:45Z) - MolCPT: Molecule Continuous Prompt Tuning to Generalize Molecular
Representation Learning [77.31492888819935]
分子表現学習のための「プリトレイン,プロンプト,ファインチューン」という新しいパラダイム,分子連続プロンプトチューニング(MolCPT)を提案する。
MolCPTは、事前訓練されたモデルを使用して、スタンドアロンの入力を表現的なプロンプトに投影するモチーフプロンプト関数を定義する。
いくつかのベンチマークデータセットの実験により、MollCPTは分子特性予測のために学習済みのGNNを効率的に一般化することが示された。
論文 参考訳(メタデータ) (2022-12-20T19:32:30Z) - Few-Shot Graph Learning for Molecular Property Prediction [46.60746023179724]
分子特性予測の新しいモデルであるMeta-MGNNを提案する。
ラベルのない分子情報を利用するため、Meta-MGNNはさらに分子構造、属性ベースの自己監視モジュール、および自己注意のタスクウェイトを組み込む。
2つの公開マルチプロパティデータセットに関する広範な実験は、Meta-MGNNがさまざまな最先端のメソッドを上回っていることを示しています。
論文 参考訳(メタデータ) (2021-02-16T01:55:34Z) - Self-Supervised Graph Transformer on Large-Scale Molecular Data [73.3448373618865]
分子表現学習のための新しいフレームワークGROVERを提案する。
GROVERは、分子の豊富な構造的および意味的な情報を、巨大な未標識分子データから学習することができる。
分子表現学習において、最大のGNNであり、最大のトレーニングデータセットである、1000万個の未標識分子に1億のパラメータを持つGROVERを事前訓練します。
論文 参考訳(メタデータ) (2020-06-18T08:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。