論文の概要: Unified Molecule Pre-training with Flexible 2D and 3D Modalities: Single and Paired Modality Integration
- arxiv url: http://arxiv.org/abs/2510.07035v1
- Date: Wed, 08 Oct 2025 14:02:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.536319
- Title: Unified Molecule Pre-training with Flexible 2D and 3D Modalities: Single and Paired Modality Integration
- Title(参考訳): フレキシブルな2次元および3次元モードを持つ統一分子事前学習:単一およびペアモード統合
- Authors: Tengwei Song, Min Wu, Yuan Fang,
- Abstract要約: 単一モード入力をサポートしながら統一的な分子表現を学習するフレキシブル分子事前学習フレームワークFlexMolを提案する。
提案手法では,2次元および3次元分子データに対して異なるモデルを用い,パラメータ共有を利用して計算効率を向上し,デコーダを用いて欠落したモダリティの特徴を生成する。
- 参考スコア(独自算出の注目度): 15.929511077091687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Molecular representation learning plays a crucial role in advancing applications such as drug discovery and material design. Existing work leverages 2D and 3D modalities of molecular information for pre-training, aiming to capture comprehensive structural and geometric insights. However, these methods require paired 2D and 3D molecular data to train the model effectively and prevent it from collapsing into a single modality, posing limitations in scenarios where a certain modality is unavailable or computationally expensive to generate. To overcome this limitation, we propose FlexMol, a flexible molecule pre-training framework that learns unified molecular representations while supporting single-modality input. Specifically, inspired by the unified structure in vision-language models, our approach employs separate models for 2D and 3D molecular data, leverages parameter sharing to improve computational efficiency, and utilizes a decoder to generate features for the missing modality. This enables a multistage continuous learning process where both modalities contribute collaboratively during training, while ensuring robustness when only one modality is available during inference. Extensive experiments demonstrate that FlexMol achieves superior performance across a wide range of molecular property prediction tasks, and we also empirically demonstrate its effectiveness with incomplete data. Our code and data are available at https://github.com/tewiSong/FlexMol.
- Abstract(参考訳): 分子表現学習は、薬物発見や材料設計といった応用の進展において重要な役割を担っている。
既存の研究は、分子情報の2Dおよび3Dモダリティを事前学習に利用し、包括的な構造的および幾何学的洞察を捉えることを目的としている。
しかしながら、これらの手法は、モデルを効果的に訓練し、単一のモダリティに崩壊することを防ぐために、ペア化された2Dと3Dの分子データを必要とし、特定のモダリティが利用できない場合や、計算的にコストがかかる場合に制限を課す。
この制限を克服するために、単一モード入力をサポートしながら統一された分子表現を学習するフレキシブル分子事前学習フレームワークFlexMolを提案する。
具体的には、視覚言語モデルにおける統一構造に着想を得て、2次元と3次元の分子データに別々のモデルを採用し、パラメータ共有を利用して計算効率を向上し、デコーダを用いて欠落したモダリティの特徴を生成する。
これにより、両方のモダリティがトレーニング中に協調的に寄与するマルチステージの継続的学習プロセスが実現されると同時に、推論中に1つのモダリティしか利用できない場合のロバスト性も保証される。
広範囲な分子特性予測タスクにおいて,FlexMolは優れた性能を発揮することを示すとともに,不完全データによる実効性を実証的に実証した。
私たちのコードとデータはhttps://github.com/tewiSong/FlexMol.orgで公開されています。
関連論文リスト
- Foundation Model for Skeleton-Based Human Action Understanding [56.89025287217221]
本稿では,統一骨格に基づくDense Representation Learningフレームワークを提案する。
USDRLはトランスフォーマーベースのDense Spatio-Temporal (DSTE)、Multi-Grained Feature Deorrelation (MG-FD)、Multi-Perspective Consistency Training (MPCT)で構成されている。
論文 参考訳(メタデータ) (2025-08-18T02:42:16Z) - MolMix: A Simple Yet Effective Baseline for Multimodal Molecular Representation Learning [17.93173928602627]
本稿では,マルチモーダル分子表現学習のためのトランスフォーマーベースラインを提案する。
我々は,SMILES文字列,2次元グラフ表現,分子の3次元コンフォメータの3つの異なるモダリティを統合する。
その単純さにもかかわらず、我々の手法は複数のデータセットにまたがって最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-10T14:36:58Z) - Integrating Chemical Language and Molecular Graph in Multimodal Fused Deep Learning for Drug Property Prediction [9.388979080270103]
分子表現の異なる多モード深層学習モデルを構築した。
モノモーダルモデルと比較すると,マルチモーダルフューズドディープラーニング(MMFDL)モデルは単一モデルよりも精度,信頼性,耐雑音性に優れている。
論文 参考訳(メタデータ) (2023-12-29T07:19:42Z) - Unified Molecular Modeling via Modality Blending [35.16755562674055]
我々は,新しい「Blund-then-predict」自己教師型学習法(MoleBLEND)を導入する。
MoleBLENDは、異なるモジュラリティからの原子関係をマトリックス符号化のための1つの統一された関係にブレンドし、2D構造と3D構造の両方のモダリティ固有情報を復元する。
実験によると、MoleBLENDは主要な2D/3Dベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-07-12T15:27:06Z) - MUDiff: Unified Diffusion for Complete Molecule Generation [104.7021929437504]
本稿では,原子の特徴,2次元離散分子構造,および3次元連続分子座標を含む分子の包括的表現を生成する新しいモデルを提案する。
拡散過程を認知するための新しいグラフトランスフォーマーアーキテクチャを提案する。
我々のモデルは、安定で多様な分子を設計するための有望なアプローチであり、分子モデリングの幅広いタスクに適用できる。
論文 参考訳(メタデータ) (2023-04-28T04:25:57Z) - Implicit Geometry and Interaction Embeddings Improve Few-Shot Molecular
Property Prediction [53.06671763877109]
我々は, 複雑な分子特性を符号化した分子埋め込みを開発し, 数発の分子特性予測の性能を向上させる。
我々の手法は大量の合成データ、すなわち分子ドッキング計算の結果を利用する。
複数の分子特性予測ベンチマークでは、埋め込み空間からのトレーニングにより、マルチタスク、MAML、プロトタイプラーニング性能が大幅に向上する。
論文 参考訳(メタデータ) (2023-02-04T01:32:40Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Learning Neural Generative Dynamics for Molecular Conformation
Generation [89.03173504444415]
分子グラフから分子コンフォメーション(つまり3d構造)を生成する方法を検討した。
分子グラフから有効かつ多様なコンフォーメーションを生成する新しい確率論的枠組みを提案する。
論文 参考訳(メタデータ) (2021-02-20T03:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。