論文の概要: MolFM-Lite: Multi-Modal Molecular Property Prediction with Conformer Ensemble Attention and Cross-Modal Fusion
- arxiv url: http://arxiv.org/abs/2602.22405v1
- Date: Wed, 25 Feb 2026 20:59:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.406356
- Title: MolFM-Lite: Multi-Modal Molecular Property Prediction with Conformer Ensemble Attention and Cross-Modal Fusion
- Title(参考訳): MolFM-Lite: Conformer Ensemble Attention and Cross-Modal Fusion を用いたマルチモーダル分子特性予測
- Authors: Syed Omer Shah, Mohammed Maqsood Ahmed, Danish Mohiuddin Mohammed, Shahnawaz Alam, Mohd Vahaj ur Rahman,
- Abstract要約: MolFM-LiteはSELFIESAUC配列(1D)、分子グラフ(2D)、コンホメーラーアンサンブル(3D)を符号化するマルチモーダルモデルである。
本手法の主な貢献は,(1)学習可能な注意を複数のRDKit生成コンバータ上でボルツマン先行と組み合わせたコンバータアンサンブルアテンション機構,(2)各モーダルが他のコンバータに共役できる相互融合層である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most machine learning models for molecular property prediction rely on a single molecular representation (either a sequence, a graph, or a 3D structure) and treat molecular geometry as static. We present MolFM-Lite, a multi-modal model that jointly encodes SELFIES sequences (1D), molecular graphs (2D), and conformer ensembles (3D) through cross-attention fusion, while conditioning predictions on experimental context via Feature-wise Linear Modulation (FiLM). Our main methodological contributions are: (1) a conformer ensemble attention mechanism that combines learnable attention with Boltzmann-weighted priors over multiple RDKit-generated conformers, capturing the thermodynamic distribution of molecular shapes; and (2) a cross-modal fusion layer where each modality can attend to others, enabling complementary information sharing. We evaluate on four MoleculeNet scaffold-split benchmarks using our model's own splits, and report all baselines re-evaluated under the same protocol. Comprehensive ablation studies across all four datasets confirm that each architectural component contributes independently, with tri-modal fusion providing 7-11% AUC improvement over single-modality baselines and conformer ensembles adding approximately 2% over single-conformer variants. Pre-training on ZINC250K (~250K molecules) using cross-modal contrastive and masked-atom objectives enables effective weight initialization at modest compute cost. We release all code, trained models, and data splits to support reproducibility.
- Abstract(参考訳): 分子特性予測のためのほとんどの機械学習モデルは、単一の分子表現(シーケンス、グラフ、または3D構造)に依存し、分子幾何学を静的として扱う。
本稿では,SELFIES 配列 (1D), 分子グラフ (2D), コンホメータアンサンブル (3D) をクロスアテンション融合により共同符号化するマルチモーダルモデル MolFM-Lite について述べる。
本手法の主な貢献は,(1)学習可能な注意を複数のRDKit生成コンバータ上でボルツマン重み付けした先行コンバータと組み合わせ,分子形状の熱力学分布を捉えるコンバータアンサンブルアテンション機構,(2)各モーダルが他と共役し、相補的な情報共有を可能にする相互融合層である。
筆者らは, モデル独自のスプリットを用いて, MoleculeNet の足場分割ベンチマークを4つ評価し, 同じプロトコルですべてのベースラインを再評価した。
4つのデータセットの総合的アブレーション研究により、各アーキテクチャコンポーネントが独立して寄与することが確認され、トリモーダル融合は、単一モダリティベースラインとコンフォメーションアンサンブルに対して7-11%のAUC改善を提供する。
ZINC250K(~250K分子)のクロスモーダルコントラストとマスク原子の目的を用いた事前トレーニングは、控えめな計算コストで効果的な重量初期化を可能にする。
再現性をサポートするために、すべてのコード、トレーニングされたモデル、データ分割をリリースします。
関連論文リスト
- Zatom-1: A Multimodal Flow Foundation Model for 3D Molecules and Materials [51.342983349686556]
Zatom-1は3次元分子や物質の生成的および予測的学習を統一する最初の基礎モデルである。
Zatom-1は、個別の原子タイプと連続した3次元幾何学を共同でモデル化するマルチモーダルフローマッチングの目的で訓練されたトランスフォーマーである。
論文 参考訳(メタデータ) (2026-02-24T20:52:39Z) - DPLM-2: A Multimodal Diffusion Protein Language Model [75.98083311705182]
DPLM-2は, 離散拡散タンパク質言語モデル(DPLM)を拡張し, 配列と構造の両方に適合する多モーダルタンパク質基盤モデルである。
DPLM-2は、配列と構造、およびその限界と条件の結合分布を学習する。
実験によりDPLM-2は高度に互換性のあるアミノ酸配列とそれに対応する3D構造を同時に生成できることが示された。
論文 参考訳(メタデータ) (2024-10-17T17:20:24Z) - MolMix: A Simple Yet Effective Baseline for Multimodal Molecular Representation Learning [17.93173928602627]
本稿では,マルチモーダル分子表現学習のためのトランスフォーマーベースラインを提案する。
我々は,SMILES文字列,2次元グラフ表現,分子の3次元コンフォメータの3つの異なるモダリティを統合する。
その単純さにもかかわらず、我々の手法は複数のデータセットにまたがって最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-10T14:36:58Z) - UniIF: Unified Molecule Inverse Folding [67.60267592514381]
全分子の逆折り畳みのための統一モデルUniIFを提案する。
提案手法は,全タスクにおける最先端手法を超越した手法である。
論文 参考訳(メタデータ) (2024-05-29T10:26:16Z) - Integrating Chemical Language and Molecular Graph in Multimodal Fused Deep Learning for Drug Property Prediction [9.388979080270103]
分子表現の異なる多モード深層学習モデルを構築した。
モノモーダルモデルと比較すると,マルチモーダルフューズドディープラーニング(MMFDL)モデルは単一モデルよりも精度,信頼性,耐雑音性に優れている。
論文 参考訳(メタデータ) (2023-12-29T07:19:42Z) - Unified Molecular Modeling via Modality Blending [35.16755562674055]
我々は,新しい「Blund-then-predict」自己教師型学習法(MoleBLEND)を導入する。
MoleBLENDは、異なるモジュラリティからの原子関係をマトリックス符号化のための1つの統一された関係にブレンドし、2D構造と3D構造の両方のモダリティ固有情報を復元する。
実験によると、MoleBLENDは主要な2D/3Dベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-07-12T15:27:06Z) - Learning Neural Generative Dynamics for Molecular Conformation
Generation [89.03173504444415]
分子グラフから分子コンフォメーション(つまり3d構造)を生成する方法を検討した。
分子グラフから有効かつ多様なコンフォーメーションを生成する新しい確率論的枠組みを提案する。
論文 参考訳(メタデータ) (2021-02-20T03:17:58Z) - MIMOSA: Multi-constraint Molecule Sampling for Molecule Optimization [51.00815310242277]
生成モデルと強化学習アプローチは、最初の成功をおさめたが、複数の薬物特性を同時に最適化する上で、依然として困難に直面している。
本稿では,MultI-Constraint MOlecule SAmpling (MIMOSA)アプローチ,初期推定として入力分子を用いるサンプリングフレームワーク,ターゲット分布からのサンプル分子を提案する。
論文 参考訳(メタデータ) (2020-10-05T20:18:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。