論文の概要: Multi-Modal Molecular Representation Learning via Structure Awareness
- arxiv url: http://arxiv.org/abs/2505.05877v2
- Date: Mon, 12 May 2025 01:15:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 14:13:13.059885
- Title: Multi-Modal Molecular Representation Learning via Structure Awareness
- Title(参考訳): 構造認識によるマルチモーダル分子表現学習
- Authors: Rong Yin, Ruyue Liu, Xiaoshuai Hao, Xingrui Zhou, Yong Liu, Can Ma, Weiping Wang,
- Abstract要約: 構造認識に基づくマルチモーダル自己制御分子表現事前学習フレームワーク(MMSA)を提案する。
MMSAは分子間の不変知識を活用することにより、分子グラフ表現を強化する。
MoleculeNetベンチマークで最先端のパフォーマンスを実現しており、平均的なROC-AUC改善はベースラインメソッドよりも1.8%から9.6%まで改善されている。
- 参考スコア(独自算出の注目度): 19.813872931221546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate extraction of molecular representations is a critical step in the drug discovery process. In recent years, significant progress has been made in molecular representation learning methods, among which multi-modal molecular representation methods based on images, and 2D/3D topologies have become increasingly mainstream. However, existing these multi-modal approaches often directly fuse information from different modalities, overlooking the potential of intermodal interactions and failing to adequately capture the complex higher-order relationships and invariant features between molecules. To overcome these challenges, we propose a structure-awareness-based multi-modal self-supervised molecular representation pre-training framework (MMSA) designed to enhance molecular graph representations by leveraging invariant knowledge between molecules. The framework consists of two main modules: the multi-modal molecular representation learning module and the structure-awareness module. The multi-modal molecular representation learning module collaboratively processes information from different modalities of the same molecule to overcome intermodal differences and generate a unified molecular embedding. Subsequently, the structure-awareness module enhances the molecular representation by constructing a hypergraph structure to model higher-order correlations between molecules. This module also introduces a memory mechanism for storing typical molecular representations, aligning them with memory anchors in the memory bank to integrate invariant knowledge, thereby improving the model generalization ability. Extensive experiments have demonstrated the effectiveness of MMSA, which achieves state-of-the-art performance on the MoleculeNet benchmark, with average ROC-AUC improvements ranging from 1.8% to 9.6% over baseline methods.
- Abstract(参考訳): 分子表現の正確な抽出は、薬物発見プロセスにおける重要なステップである。
近年,画像に基づくマルチモーダル分子表現法や2D/3Dトポロジーが主流となっている分子表現学習法が著しく進歩している。
しかし、これらの既存のマルチモーダルアプローチは、しばしば異なるモーダルの情報を直接融合させ、モーダル間相互作用の可能性を見落とし、複雑な高次関係や分子間の不変の特徴を適切に捉えることができない。
これらの課題を克服するために,分子間の不変知識を活用して分子グラフ表現を強化するために,構造認識に基づくマルチモーダル自己教師型分子表現事前学習フレームワーク(MMSA)を提案する。
フレームワークは、マルチモーダルな分子表現学習モジュールと構造認識モジュールの2つの主要モジュールで構成されている。
マルチモーダル分子表現学習モジュールは、同一分子の異なるモーダル性からの情報を協調的に処理し、モーダル間差を克服し、統一された分子埋め込みを生成する。
その後、構造認識モジュールは、分子間の高次相関をモデル化するハイパーグラフ構造を構築することにより、分子表現を強化する。
このモジュールはまた、典型的な分子表現を格納するメモリ機構を導入し、メモリバンク内のメモリアンカーと整列して不変知識を統合することにより、モデル一般化能力を向上させる。
大規模な実験では、MoreculeNetベンチマークで最先端のパフォーマンスを達成するMMSAの有効性が示されており、平均1.8%から9.6%のROC-AUC改善がベースライン法で行われている。
関連論文リスト
- Knowledge-aware contrastive heterogeneous molecular graph learning [77.94721384862699]
分子グラフを不均一な分子グラフ学習(KCHML)に符号化するパラダイムシフトを提案する。
KCHMLは、不均一な分子グラフと二重メッセージパッシング機構によって強化された3つの異なるグラフビュー-分子、元素、薬理学-を通して分子を概念化する。
この設計は、プロパティ予測やドラッグ・ドラッグ・インタラクション(DDI)予測などの下流タスクに対する包括的な表現を提供する。
論文 参考訳(メタデータ) (2025-02-17T11:53:58Z) - FARM: Functional Group-Aware Representations for Small Molecules [55.281754551202326]
小型分子のための機能的グループ認識表現(FARM)について紹介する。
FARMはSMILES、自然言語、分子グラフのギャップを埋めるために設計された基礎モデルである。
MoleculeNetデータセット上でFARMを厳格に評価し、12タスク中10タスクで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-10-02T23:04:58Z) - MolTC: Towards Molecular Relational Modeling In Language Models [28.960416816491392]
分子間相互作用予測のための新しい枠組みとして,分子間相互作用予測法(分子間相互作用予測法)を提案する。
我々の実験は4000,000以上の分子対を含む様々なデータセットで実施され、現在のGNNおよびLLMベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-02-06T07:51:56Z) - Integrating Chemical Language and Molecular Graph in Multimodal Fused Deep Learning for Drug Property Prediction [9.388979080270103]
分子表現の異なる多モード深層学習モデルを構築した。
モノモーダルモデルと比較すると,マルチモーダルフューズドディープラーニング(MMFDL)モデルは単一モデルよりも精度,信頼性,耐雑音性に優れている。
論文 参考訳(メタデータ) (2023-12-29T07:19:42Z) - MolFM: A Multimodal Molecular Foundation Model [9.934141536012596]
MolFMは分子構造、バイオメディカルテキスト、知識グラフからの共同表現学習を容易にするために設計された多モード分子基盤モデルである。
我々は,同分子の異なるモジュラリティ間の特徴空間における距離を最小化することにより,我々のクロスモーダル事前学習が局所的および大域的分子知識を捕捉する理論解析を行う。
クロスモーダル検索では、MolFMは既存のモデルよりも12.13%、絶対利得は5.04%、ゼロショットと微調整がそれぞれ優れている。
論文 参考訳(メタデータ) (2023-06-06T12:45:15Z) - A Molecular Multimodal Foundation Model Associating Molecule Graphs with
Natural Language [63.60376252491507]
本稿では,分子グラフとその意味的関連テキストデータから事前学習した分子マルチモーダル基礎モデルを提案する。
我々のモデルは、生物学、化学、材料、環境、医学などの分野において、AIを動力とする分野に幅広い影響を与えるだろうと考えています。
論文 参考訳(メタデータ) (2022-09-12T00:56:57Z) - Learning Neural Generative Dynamics for Molecular Conformation
Generation [89.03173504444415]
分子グラフから分子コンフォメーション(つまり3d構造)を生成する方法を検討した。
分子グラフから有効かつ多様なコンフォーメーションを生成する新しい確率論的枠組みを提案する。
論文 参考訳(メタデータ) (2021-02-20T03:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。