論文の概要: MOL-Mamba: Enhancing Molecular Representation with Structural & Electronic Insights
- arxiv url: http://arxiv.org/abs/2412.16483v1
- Date: Sat, 21 Dec 2024 04:48:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:55:37.075456
- Title: MOL-Mamba: Enhancing Molecular Representation with Structural & Electronic Insights
- Title(参考訳): MOL-Mamba:構造と電子的洞察による分子表現の強化
- Authors: Jingjing Hu, Dan Guo, Zhan Si, Deguang Liu, Yunfeng Diao, Jing Zhang, Jinxing Zhou, Meng Wang,
- Abstract要約: MOL-Mambaは構造的および電子的洞察を組み合わせることで分子表現を強化するフレームワークである。
MOL-Mambaは11の化学生物学的分子データセットで最先端のベースラインを上回っている。
- 参考スコア(独自算出の注目度): 23.55889965960128
- License:
- Abstract: Molecular representation learning plays a crucial role in various downstream tasks, such as molecular property prediction and drug design. To accurately represent molecules, Graph Neural Networks (GNNs) and Graph Transformers (GTs) have shown potential in the realm of self-supervised pretraining. However, existing approaches often overlook the relationship between molecular structure and electronic information, as well as the internal semantic reasoning within molecules. This omission of fundamental chemical knowledge in graph semantics leads to incomplete molecular representations, missing the integration of structural and electronic data. To address these issues, we introduce MOL-Mamba, a framework that enhances molecular representation by combining structural and electronic insights. MOL-Mamba consists of an Atom & Fragment Mamba-Graph (MG) for hierarchical structural reasoning and a Mamba-Transformer (MT) fuser for integrating molecular structure and electronic correlation learning. Additionally, we propose a Structural Distribution Collaborative Training and E-semantic Fusion Training framework to further enhance molecular representation learning. Extensive experiments demonstrate that MOL-Mamba outperforms state-of-the-art baselines across eleven chemical-biological molecular datasets. Code is available at https://github.com/xian-sh/MOL-Mamba.
- Abstract(参考訳): 分子表現学習は、分子特性予測や薬物設計など、下流の様々なタスクにおいて重要な役割を果たす。
分子を正確に表現するために、グラフニューラルネットワーク(GNN)とグラフトランスフォーマー(GT)は、自己教師付き事前学習の領域におけるポテンシャルを示している。
しかし、既存のアプローチは分子構造と電子情報との関係や分子の内部の意味的推論をしばしば見落としている。
グラフセマンティクスにおける基本的な化学知識の欠如は、構造データと電子データの統合を欠いた不完全な分子表現をもたらす。
これらの問題に対処するために、構造的および電子的洞察を組み合わせることで分子表現を強化するフレームワークであるMOL-Mambaを紹介する。
MOL-Mambaは、階層構造推論のためのAtom & Fragment Mamba-Graph (MG)と、分子構造と電子相関学習を統合するためのMamba-Transformer (MT)ファスナーから構成される。
さらに,分子表現学習をさらに強化する構造分布協調学習およびE-semantic Fusion Trainingフレームワークを提案する。
大規模な実験により、MOL-Mambaは11の化学生物学的分子データセットで最先端のベースラインを上回っていることが示された。
コードはhttps://github.com/xian-sh/MOL-Mamba.comで入手できる。
関連論文リスト
- GraphXForm: Graph transformer for computer-aided molecular design with application to extraction [73.1842164721868]
本稿では,デコーダのみのグラフトランスフォーマアーキテクチャであるGraphXFormについて述べる。
液液抽出のための2つの溶媒設計課題について評価し,4つの最先端分子設計技術より優れていることを示した。
論文 参考訳(メタデータ) (2024-11-03T19:45:15Z) - Pre-trained Molecular Language Models with Random Functional Group Masking [54.900360309677794]
SMILESをベースとしたアンダーリネム分子アンダーリネム言語アンダーリネムモデルを提案し,特定の分子原子に対応するSMILESサブシーケンスをランダムにマスキングする。
この技術は、モデルに分子構造や特性をよりよく推測させ、予測能力を高めることを目的としている。
論文 参考訳(メタデータ) (2024-11-03T01:56:15Z) - FragNet: A Graph Neural Network for Molecular Property Prediction with Four Layers of Interpretability [0.7499722271664147]
本稿では,現在の最先端モデルに匹敵する予測精度を達成可能なグラフニューラルネットワークであるFragNetアーキテクチャを紹介する。
このモデルにより、どの原子、共有結合、分子断片、分子フラグメント結合が与えられた分子特性の予測に重要なのかを理解することができる。
FragNetの解釈能力は、分子構造と分子特性の間の学習パターンから科学的洞察を得るための鍵となる。
論文 参考訳(メタデータ) (2024-10-16T01:37:01Z) - Advancing Molecular Machine (Learned) Representations with Stereoelectronics-Infused Molecular Graphs [0.0]
分子グラフに量子化学的に豊富な情報を注入する新しい手法を立体電子効果により導入する。
立体電子相互作用の明示的な付加は分子機械学習モデルの性能を著しく向上させることを示す。
また, 学習された表現は, 従来は難解であったシステムに対して, ファクシブルなステレオエレクトロニクス評価を可能にすることを示す。
論文 参考訳(メタデータ) (2024-08-08T15:21:07Z) - Learning Multi-view Molecular Representations with Structured and Unstructured Knowledge [14.08112359246334]
本稿では, 化学構造から多視点分子知識を抽出する表現学習モデルMV-Mol, バイオメディカルテキストからの非構造化知識, 知識グラフからの構造化知識について述べる。
MV-Molは分子特性予測に有効であることを示す。
論文 参考訳(メタデータ) (2024-06-14T08:48:10Z) - MultiModal-Learning for Predicting Molecular Properties: A Framework Based on Image and Graph Structures [2.5563339057415218]
MolIGは、画像とグラフ構造に基づいて分子特性を予測するための、新しいMultiModaL分子事前学習フレームワークである。
両者の分子表現の強さを融合させる。
ベンチマークグループ内の分子特性予測に関連する下流タスクでは、パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-11-28T10:28:35Z) - Bi-level Contrastive Learning for Knowledge-Enhanced Molecule Representations [68.32093648671496]
分子に固有の二重レベル構造を考慮に入れたGODEを導入する。
分子は固有のグラフ構造を持ち、より広い分子知識グラフ内のノードとして機能する。
異なるグラフ構造上の2つのGNNを事前学習することにより、GODEは対応する知識グラフサブ構造と分子構造を効果的に融合させる。
論文 参考訳(メタデータ) (2023-06-02T15:49:45Z) - Atomic and Subgraph-aware Bilateral Aggregation for Molecular
Representation Learning [57.670845619155195]
我々は、原子とサブグラフを意識したバイラテラルアグリゲーション(ASBA)と呼ばれる分子表現学習の新しいモデルを導入する。
ASBAは、両方の種類の情報を統合することで、以前の原子単位とサブグラフ単位のモデルの限界に対処する。
本手法は,分子特性予測のための表現をより包括的に学習する方法を提供する。
論文 参考訳(メタデータ) (2023-05-22T00:56:00Z) - A Molecular Multimodal Foundation Model Associating Molecule Graphs with
Natural Language [63.60376252491507]
本稿では,分子グラフとその意味的関連テキストデータから事前学習した分子マルチモーダル基礎モデルを提案する。
我々のモデルは、生物学、化学、材料、環境、医学などの分野において、AIを動力とする分野に幅広い影響を与えるだろうと考えています。
論文 参考訳(メタデータ) (2022-09-12T00:56:57Z) - Do Large Scale Molecular Language Representations Capture Important
Structural Information? [31.76876206167457]
本稿では,MoLFormerと呼ばれる効率的なトランスフォーマーエンコーダモデルのトレーニングにより得られた分子埋め込みについて述べる。
実験の結果,グラフベースおよび指紋ベースによる教師付き学習ベースラインと比較して,学習された分子表現が競合的に機能することが確認された。
論文 参考訳(メタデータ) (2021-06-17T14:33:55Z) - Self-Supervised Graph Transformer on Large-Scale Molecular Data [73.3448373618865]
分子表現学習のための新しいフレームワークGROVERを提案する。
GROVERは、分子の豊富な構造的および意味的な情報を、巨大な未標識分子データから学習することができる。
分子表現学習において、最大のGNNであり、最大のトレーニングデータセットである、1000万個の未標識分子に1億のパラメータを持つGROVERを事前訓練します。
論文 参考訳(メタデータ) (2020-06-18T08:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。