論文の概要: UniMAP: Universal SMILES-Graph Representation Learning
- arxiv url: http://arxiv.org/abs/2310.14216v2
- Date: Mon, 04 Nov 2024 13:33:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:41:41.278732
- Title: UniMAP: Universal SMILES-Graph Representation Learning
- Title(参考訳): UniMAP:Universal SMILES-Graph表現学習
- Authors: Shikun Feng, Lixin Yang, Yanwen Huang, Yuyan Ni, Weiying Ma, Yanyan Lan,
- Abstract要約: ユニバーサルSMILEグラフ表現学習モデル(UniMAP)を提案する。
CMM(Multi-Level Cross-Modality Masking)、SMILES-Graph Matching(SGM)、FLA(Fragment-Level Alignment)、ドメイン知識学習(DKL)の4種類の事前学習タスクがユニマップ向けに設計されている。
実験の結果,UniMAPは最先端の事前学習方法よりも優れていた。
- 参考スコア(独自算出の注目度): 21.25038529787392
- License:
- Abstract: Molecular representation learning is fundamental for many drug related applications. Most existing molecular pre-training models are limited in using single molecular modality, either SMILES or graph representation. To effectively leverage both modalities, we argue that it is critical to capture the fine-grained 'semantics' between SMILES and graph, because subtle sequence/graph differences may lead to contrary molecular properties. In this paper, we propose a universal SMILE-graph representation learning model, namely UniMAP. Firstly, an embedding layer is employed to obtain the token and node/edge representation in SMILES and graph, respectively. A multi-layer Transformer is then utilized to conduct deep cross-modality fusion. Specially, four kinds of pre-training tasks are designed for UniMAP, including Multi-Level Cross-Modality Masking (CMM), SMILES-Graph Matching (SGM), Fragment-Level Alignment (FLA), and Domain Knowledge Learning (DKL). In this way, both global (i.e. SGM and DKL) and local (i.e. CMM and FLA) alignments are integrated to achieve comprehensive cross-modality fusion. We evaluate UniMAP on various downstream tasks, i.e. molecular property prediction, drug-target affinity prediction and drug-drug interaction. Experimental results show that UniMAP outperforms current state-of-the-art pre-training methods.We also visualize the learned representations to demonstrate the effect of multi-modality integration.
- Abstract(参考訳): 分子表現学習は多くの薬物関連用途において基礎となる。
既存の分子事前学習モデルの多くは、SMILESまたはグラフ表現のいずれにおいても、単一の分子モダリティを使用する場合に制限されている。
両方のモダリティを効果的に活用するには、微妙な配列/グラフの相違が反対の分子特性をもたらすため、SMILESとグラフの間の微細な「意味論」を捉えることが重要であると論じる。
本論文では,UniMAPという汎用SMILEグラフ表現学習モデルを提案する。
まず、埋め込み層を用いて、SMILESとグラフのトークンとノード/エッジ表現を得る。
次に、多層トランスを用いて、深層異方性融合を行う。
特に、Multi-Level Cross-Modality Masking (CMM)、SMILES-Graph Matching (SGM)、Fragment-Level Alignment (FLA)、Domain Knowledge Learning (DKL)の4種類の事前学習タスクがUniMAP向けに設計されている。
このように、グローバル(すなわちSGMとDKL)とローカル(すなわちCMMとFLA)のアライメントが統合され、包括的な相互モダリティ融合が達成される。
分子特性予測,薬物-標的親和性予測,薬物-薬物相互作用など,様々な下流課題におけるUniMAPの評価を行った。
実験の結果、UniMAPは最先端の事前学習手法よりも優れており、学習した表現を可視化してマルチモーダリティ統合の効果を実証する。
関連論文リスト
- Graph Multi-Similarity Learning for Molecular Property Prediction [13.214794693837785]
本稿では,Graph Multi-Similarity Learning for Molecular Property Prediction (GraphMSL)フレームワークを紹介する。
まず、まず自己相似性計量(すなわち、アンカー分子と他の分子との類似性)を定義し、次にペア重み付け関数を通してアンカーの一般化多相性計量に変換する。
GraphMSLは、MoneculeNetデータセット間の多重相似性測定の有効性を検証する。
論文 参考訳(メタデータ) (2024-01-31T05:59:38Z) - Multi-Modal Representation Learning for Molecular Property Prediction:
Sequence, Graph, Geometry [6.049566024728809]
深層学習に基づく分子特性予測は、従来の手法の資源集約性に対する解決策として登場した。
本稿では,分子特性予測のための新しいマルチモーダル表現学習モデルSGGRLを提案する。
モダリティ間の整合性を確保するため、SGGRLは異なる分子の類似性を最小化しながら同じ分子の表現の類似性を最大化するように訓練される。
論文 参考訳(メタデータ) (2024-01-07T02:18:00Z) - Learning Over Molecular Conformer Ensembles: Datasets and Benchmarks [44.934084652800976]
コンフォーマーアンサンブルを用いた学習の可能性を徹底的に評価するための,最初のMoleculAR Conformer Ensemble Learningベンチマークを導入する。
その結果,コンバータ空間からの直接学習は,様々なタスクやモデルの性能を向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-09-29T20:06:46Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Bi-level Contrastive Learning for Knowledge-Enhanced Molecule
Representations [55.42602325017405]
本稿では,分子の2レベル構造を考慮した新しいGODE法を提案する。
異なるグラフ構造上で2つのグラフニューラルネットワーク(GNN)を事前訓練し、対照的な学習と組み合わせることで、GODEは分子構造を対応する知識グラフサブ構造と融合させる。
11の化学特性タスクを微調整した場合、我々のモデルは既存のベンチマークよりも優れており、分類タスクの平均ROC-AUCアップリフトは13.8%、回帰タスクの平均RMSE/MAEエンハンスメントは35.1%である。
論文 参考訳(メタデータ) (2023-06-02T15:49:45Z) - Atomic and Subgraph-aware Bilateral Aggregation for Molecular
Representation Learning [57.670845619155195]
我々は、原子とサブグラフを意識したバイラテラルアグリゲーション(ASBA)と呼ばれる分子表現学習の新しいモデルを導入する。
ASBAは、両方の種類の情報を統合することで、以前の原子単位とサブグラフ単位のモデルの限界に対処する。
本手法は,分子特性予測のための表現をより包括的に学習する方法を提供する。
論文 参考訳(メタデータ) (2023-05-22T00:56:00Z) - t-SMILES: A Scalable Fragment-based Molecular Representation Framework for De Novo Molecule Generation [9.116670221263753]
本研究では, t-SMILESと呼ばれる, フレキシブル, フラグメントベース, マルチスケールな分子表現フレームワークを提案する。
フラグメント化された分子グラフから生成された全二分木上で幅優先探索を行うことにより得られるSMILES型文字列を用いて分子を記述する。
従来のSMILES、DeepSMILES、SELFIES、ベースラインモデルをゴール指向タスクで大幅に上回っている。
論文 参考訳(メタデータ) (2023-01-04T21:41:01Z) - Molecular Joint Representation Learning via Multi-modal Information [11.493011069441188]
MMSGと呼ばれるSMILESと分子グラフのマルチモーダル情報を用いた分子共同表現学習フレームワークを提案する。
トランスフォーマーのアテンションバイアスとしてボンドレベルグラフ表現を導入することにより,自己注意機構を改善した。
さらに,グラフから集約された情報フローを強化するために,双方向メッセージ通信グラフニューラルネットワーク(BMC GNN)を提案する。
論文 参考訳(メタデータ) (2022-11-25T11:53:23Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - Dual-view Molecule Pre-training [186.07333992384287]
デュアルビュー分子事前学習は、両方のタイプの分子表現の強さを効果的に組み合わせることができる。
DMPは9つの分子特性予測タスクでテストされ、そのうち7つで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-06-17T03:58:38Z) - ASGN: An Active Semi-supervised Graph Neural Network for Molecular
Property Prediction [61.33144688400446]
本稿では,ラベル付き分子とラベルなし分子の両方を組み込んだ,アクティブ半教師付きグラフニューラルネットワーク(ASGN)を提案する。
教師モデルでは,分子構造や分子分布から情報を共同で活用する汎用表現を学習するための,新しい半教師付き学習手法を提案する。
最後に,分子多様性の観点から,フレームワーク学習全体を通して情報的データを選択するための新しい能動的学習戦略を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:22:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。