論文の概要: Local-Global Multimodal Contrastive Learning for Molecular Property Prediction
- arxiv url: http://arxiv.org/abs/2601.22610v1
- Date: Fri, 30 Jan 2026 06:06:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.261694
- Title: Local-Global Multimodal Contrastive Learning for Molecular Property Prediction
- Title(参考訳): 分子特性予測のための局所グローバルマルチモーダルコントラスト学習
- Authors: Xiayu Liu, Zhengyi Lu, Yunhong Liao, Chan Fan, Hou-biao Li,
- Abstract要約: LGM-CLは,分子グラフとテキスト表現を共同でモデル化する,局所的多言語型コントラスト学習フレームワークである。
MoleculeNetベンチマークの実験では、LGM-CLは分類タスクと回帰タスクの両方で一貫した、競争力のあるパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 0.4349640169711269
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate molecular property prediction requires integrating complementary information from molecular structure and chemical semantics. In this work, we propose LGM-CL, a local-global multimodal contrastive learning framework that jointly models molecular graphs and textual representations derived from SMILES and chemistry-aware augmented texts. Local functional group information and global molecular topology are captured using AttentiveFP and Graph Transformer encoders, respectively, and aligned through self-supervised contrastive learning. In addition, chemically enriched textual descriptions are contrasted with original SMILES to incorporate physicochemical semantics in a task-agnostic manner. During fine-tuning, molecular fingerprints are further integrated via Dual Cross-attention multimodal fusion. Extensive experiments on MoleculeNet benchmarks demonstrate that LGM-CL achieves consistent and competitive performance across both classification and regression tasks, validating the effectiveness of unified local-global and multimodal representation learning.
- Abstract(参考訳): 正確な分子特性予測には、分子構造と化学意味学の相補的な情報を統合する必要がある。
本研究では,分子グラフとSMILESから派生したテキスト表現を協調的にモデル化する,局所的多目的コントラスト学習フレームワーク LGM-CL を提案する。
局所関数群情報とグローバル分子トポロジーは、それぞれAttentiveFPとGraph Transformerエンコーダを用いて取得され、自己教師付きコントラスト学習によって整列される。
さらに、化学的にリッチなテキスト記述は、物理化学的意味論をタスクに依存しない方法で組み込むためにオリジナルのSMILESと対比される。
微調整中、分子指紋はデュアルクロスアテンション多モード融合によってさらに統合される。
MoleculeNetベンチマークの大規模な実験により、LGM-CLは分類タスクと回帰タスクの両方で一貫した競合性能を達成し、局所言語とマルチモーダル表現学習の有効性を検証した。
関連論文リスト
- Entropy-Guided Dynamic Tokens for Graph-LLM Alignment in Molecular Understanding [13.814119721533508]
分子理解は、科学的発見のような進歩する領域の中心である。
既存のグラフ-LLMブリッジは、固定長の静的トークンでQ-Formerスタイルのコネクタを適応することが多い。
本稿では,エントロピー誘導型動的トークン変換器であるETT-Formerを紹介した。
論文 参考訳(メタデータ) (2026-02-02T19:56:21Z) - How well can off-the-shelf LLMs elucidate molecular structures from mass spectra using chain-of-thought reasoning? [51.286853421822705]
大規模言語モデル (LLM) は推論集約的な科学的タスクを約束するが、化学的解釈の能力はまだ不明である。
我々は、分子構造を予測するために、LLMが質量スペクトルデータに対してどのように理由を持つかを評価する、Chain-of-Thought(CoT)プロンプトフレームワークとベンチマークを導入する。
SMILESの妥当性, 式整合性, 構造的類似性の指標による評価の結果, LLMは合成学的に有効で, 部分的に可視な構造を生成できるが, 分子予測の正確性やリンク推論を達成できないことがわかった。
論文 参考訳(メタデータ) (2026-01-09T20:08:42Z) - $\text{M}^{2}$LLM: Multi-view Molecular Representation Learning with Large Language Models [59.125833618091846]
分子構造ビュー,分子タスクビュー,分子規則ビューの3つの視点を統合した多視点フレームワークを提案する。
実験によると、$textM2$LLMは、分類タスクと回帰タスクをまたいだ複数のベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-08-12T05:46:47Z) - Aligned Manifold Property and Topology Point Clouds for Learning Molecular Properties [55.2480439325792]
この研究は、局所量子由来のスカラー場とカスタムトポロジカルディスクリプタを組み合わせた分子表面表現であるAMPTCRを導入する。
分子量については、AMPTCRが物理的に意味のあるデータをコードし、検証R2は0.87であることを確認した。
細菌抑制タスクでは、AMPTCRは大腸菌阻害値の分類と直接回帰の両方を可能にする。
論文 参考訳(メタデータ) (2025-07-22T04:35:50Z) - Multi-Level Fusion Graph Neural Network for Molecule Property Prediction [8.629821238312621]
グラフアテンションネットワークと新しいグラフ変換器を統合したマルチレベルフュージョングラフニューラルネットワーク(MLFGNN)を提案する。
複数のベンチマークデータセットの実験により、MLFGNNは、分類タスクと回帰タスクの両方において、最先端のメソッドを一貫して上回っていることが示された。
論文 参考訳(メタデータ) (2025-07-04T09:38:19Z) - Knowledge-aware contrastive heterogeneous molecular graph learning [77.94721384862699]
分子グラフを不均一な分子グラフ学習(KCHML)に符号化するパラダイムシフトを提案する。
KCHMLは、不均一な分子グラフと二重メッセージパッシング機構によって強化された3つの異なるグラフビュー-分子、元素、薬理学-を通して分子を概念化する。
この設計は、プロパティ予測やドラッグ・ドラッグ・インタラクション(DDI)予測などの下流タスクに対する包括的な表現を提供する。
論文 参考訳(メタデータ) (2025-02-17T11:53:58Z) - Graph-based Molecular In-context Learning Grounded on Morgan Fingerprints [28.262593876388397]
In-context Learning (ICL) では、プロパティ予測や分子キャプションなどの分子タスクのための大規模言語モデル(LLM)を、慎重に選択された実演例を入力プロンプトに埋め込む。
しかし、現在の分子タスクのプロンプト検索法は、モーガン指紋のような分子の特徴的類似性に依存しており、これはグローバル分子と原子結合の関係を適切に捉えていない。
本稿では,グローバル分子構造をグラフニューラルネットワーク(GNN)とテキストキャプション(記述)に整合させ,モーガン指紋による局所的特徴類似性を活用する自己教師付き学習手法GAMICを提案する。
論文 参考訳(メタデータ) (2025-02-08T02:46:33Z) - Pre-trained Molecular Language Models with Random Functional Group Masking [54.900360309677794]
SMILESをベースとしたアンダーリネム分子アンダーリネム言語アンダーリネムモデルを提案し,特定の分子原子に対応するSMILESサブシーケンスをランダムにマスキングする。
この技術は、モデルに分子構造や特性をよりよく推測させ、予測能力を高めることを目的としている。
論文 参考訳(メタデータ) (2024-11-03T01:56:15Z) - FARM: Functional Group-Aware Representations for Small Molecules [55.281754551202326]
小型分子のための機能的グループ認識表現(FARM)について紹介する。
FARMはSMILES、自然言語、分子グラフのギャップを埋めるために設計された新しいモデルである。
我々は、13のタスクのうち11のタスクで最先端のパフォーマンスを達成するMoleculeNetデータセット上で、FARMを評価した。
論文 参考訳(メタデータ) (2024-10-02T23:04:58Z) - Could Chemical LLMs benefit from Message Passing [0.0]
コントラスト学習と融合という,情報統合が性能を向上させるかどうかを評価するための2つの戦略を提案する。
実験により,より小さな分子グラフに適用した場合のベースラインに比べて,積分法は優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2024-05-14T06:09:08Z) - Instruction Multi-Constraint Molecular Generation Using a Teacher-Student Large Language Model [49.64512917330373]
本稿では,学生に類似した多制約分子生成大言語モデルTSMMGを紹介する。
TSMMGを訓練するために、これらの「教師」から分子知識を抽出し、大量のテキスト-分子対を構築する。
我々は,TSMMGが複雑で自然言語で記述された特性を満たす分子を生成できることを実験的に明らかにした。
論文 参考訳(メタデータ) (2024-03-20T02:15:55Z) - MolTC: Towards Molecular Relational Modeling In Language Models [28.960416816491392]
分子間相互作用予測のための新しい枠組みとして,分子間相互作用予測法(分子間相互作用予測法)を提案する。
我々の実験は4000,000以上の分子対を含む様々なデータセットで実施され、現在のGNNおよびLLMベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-02-06T07:51:56Z) - ASGN: An Active Semi-supervised Graph Neural Network for Molecular
Property Prediction [61.33144688400446]
本稿では,ラベル付き分子とラベルなし分子の両方を組み込んだ,アクティブ半教師付きグラフニューラルネットワーク(ASGN)を提案する。
教師モデルでは,分子構造や分子分布から情報を共同で活用する汎用表現を学習するための,新しい半教師付き学習手法を提案する。
最後に,分子多様性の観点から,フレームワーク学習全体を通して情報的データを選択するための新しい能動的学習戦略を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:22:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。