論文の概要: MolGA: Molecular Graph Adaptation with Pre-trained 2D Graph Encoder
- arxiv url: http://arxiv.org/abs/2510.07289v1
- Date: Wed, 08 Oct 2025 17:46:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.674376
- Title: MolGA: Molecular Graph Adaptation with Pre-trained 2D Graph Encoder
- Title(参考訳): MolGA: 事前学習した2Dグラフエンコーダによる分子グラフ適応
- Authors: Xingtong Yu, Chang Zhou, Xinming Zhang, Yuan Fang,
- Abstract要約: MolGAは、様々な分子領域の知識を柔軟に組み込んで、事前訓練された2Dグラフエンコーダを下流の分子応用に適用する。
まず,事前学習したトポロジ表現とドメイン知識表現とのギャップを埋める分子アライメント戦略を提案する。
第2に、分子ドメイン知識のきめ細かい統合を可能にするために、インスタンス固有のトークンを生成する条件適応機構を導入する。
- 参考スコア(独自算出の注目度): 39.80881797755817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Molecular graph representation learning is widely used in chemical and biomedical research. While pre-trained 2D graph encoders have demonstrated strong performance, they overlook the rich molecular domain knowledge associated with submolecular instances (atoms and bonds). While molecular pre-training approaches incorporate such knowledge into their pre-training objectives, they typically employ designs tailored to a specific type of knowledge, lacking the flexibility to integrate diverse knowledge present in molecules. Hence, reusing widely available and well-validated pre-trained 2D encoders, while incorporating molecular domain knowledge during downstream adaptation, offers a more practical alternative. In this work, we propose MolGA, which adapts pre-trained 2D graph encoders to downstream molecular applications by flexibly incorporating diverse molecular domain knowledge. First, we propose a molecular alignment strategy that bridge the gap between pre-trained topological representations with domain-knowledge representations. Second, we introduce a conditional adaptation mechanism that generates instance-specific tokens to enable fine-grained integration of molecular domain knowledge for downstream tasks. Finally, we conduct extensive experiments on eleven public datasets, demonstrating the effectiveness of MolGA.
- Abstract(参考訳): 分子グラフ表現学習は化学・生物医学研究で広く用いられている。
事前学習された2Dグラフエンコーダは強い性能を示したが、分子サブインスタンス(原子と結合)に関連する豊富な分子ドメイン知識を見落としている。
分子事前学習アプローチは、そのような知識を事前学習の目的に取り入れるが、通常は特定の種類の知識に適した設計を採用し、分子に存在する多様な知識を統合する柔軟性を欠いている。
したがって、広く利用され、訓練済みの2Dエンコーダを再利用し、下流適応中に分子ドメインの知識を組み込むことにより、より実用的な代替手段を提供する。
本研究では,分子領域の知識を柔軟に組み込むことにより,事前学習した2次元グラフエンコーダを下流の分子応用に適用するMolGAを提案する。
まず,事前学習したトポロジ表現とドメイン知識表現とのギャップを埋める分子アライメント戦略を提案する。
第二に、下流タスクのための分子ドメイン知識のきめ細かい統合を可能にするために、インスタンス固有のトークンを生成する条件適応機構を導入する。
最後に、11の公開データセットに対して広範な実験を行い、MolGAの有効性を実証した。
関連論文リスト
- Molecular Graph Representation Learning Integrating Large Language Models with Domain-specific Small Models [12.744381867301353]
大規模言語モデルとドメイン固有小モデルを統合する新しい分子グラフ表現学習フレームワークを提案する。
分子グラフとそれに対応する記述文を含む多モードアライメント法を用いて、分子表現の事前学習を誘導する。
論文 参考訳(メタデータ) (2024-08-19T16:11:59Z) - Bi-level Contrastive Learning for Knowledge-Enhanced Molecule Representations [68.32093648671496]
分子に固有の二重レベル構造を考慮に入れたGODEを導入する。
分子は固有のグラフ構造を持ち、より広い分子知識グラフ内のノードとして機能する。
異なるグラフ構造上の2つのGNNを事前学習することにより、GODEは対応する知識グラフサブ構造と分子構造を効果的に融合させる。
論文 参考訳(メタデータ) (2023-06-02T15:49:45Z) - A Molecular Multimodal Foundation Model Associating Molecule Graphs with
Natural Language [63.60376252491507]
本稿では,分子グラフとその意味的関連テキストデータから事前学習した分子マルチモーダル基礎モデルを提案する。
我々のモデルは、生物学、化学、材料、環境、医学などの分野において、AIを動力とする分野に幅広い影響を与えるだろうと考えています。
論文 参考訳(メタデータ) (2022-09-12T00:56:57Z) - Self-Supervised Graph Transformer on Large-Scale Molecular Data [73.3448373618865]
分子表現学習のための新しいフレームワークGROVERを提案する。
GROVERは、分子の豊富な構造的および意味的な情報を、巨大な未標識分子データから学習することができる。
分子表現学習において、最大のGNNであり、最大のトレーニングデータセットである、1000万個の未標識分子に1億のパラメータを持つGROVERを事前訓練します。
論文 参考訳(メタデータ) (2020-06-18T08:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。