論文の概要: Molecular Structure-Property Co-Trained Foundation Model for In Silico
Chemistry
- arxiv url: http://arxiv.org/abs/2211.10590v1
- Date: Sat, 19 Nov 2022 05:16:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 18:09:05.081965
- Title: Molecular Structure-Property Co-Trained Foundation Model for In Silico
Chemistry
- Title(参考訳): インシリコ化学のための分子構造-特性共学習基礎モデル
- Authors: Jinho Chang and Jong Chul Ye
- Abstract要約: 化学における下流の様々なタスクにシリコで使用できる新しいマルチモーダル基礎モデルを提案する。
具体的には、構造固有マルチモーダル(SPMM)基盤モデルと呼ばれるフレームワークは、X字型アテンションを持つデュアルストリームトランスをベースとしている。
分子の特異な一様表現はマルチモーダル学習から出現し、他の多くの下流タスクに微調整される可能性があることを示す。
- 参考スコア(独自算出の注目度): 44.60174246341653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, deep learning approaches have been extensively studied for various
problems in chemistry, such as virtual screening, de novo molecule design, etc.
Despite the impressive successes, end-to-end training for specific tasks
usually requires separately designed networks, so it's often difficult to
acquire a unified principle to synergistically combine existing architectures
and training datasets for novel tasks. To address this, inspired by recent
advances of pre-trained multi-modal foundation models such as Vision-Language
Pretrained models (VLP), here we present a novel multimodal foundation model
that can be used {\em in silico} for various downstream tasks in chemistry.
Specifically, our framework, dubbed as the structure-property multi-modal
(SPMM) foundation model, is based on the dual-stream transformer with X-shape
attention, so that it can align the molecule structure and the chemical
properties in a common embedding space. Accordingly, SPMM can simultaneously
perform chemical property prediction from given structure-describing strings
and allows the generation of molecular structures for given chemical
properties, which was previously not possible with a single architecture.
Furthermore, we show that the outstanding unimodal representation of a molecule
emerges from multimodal learning, which has the potential to be fine-tuned for
many other downstream tasks.
- Abstract(参考訳): 近年, 仮想スクリーニングやデノボ分子設計など, 化学における様々な問題に対するディープラーニングのアプローチが広く研究されている。
素晴らしい成功にもかかわらず、特定のタスクに対するエンドツーエンドのトレーニングは通常、個別に設計されたネットワークを必要とするため、既存のアーキテクチャと新しいタスクのためのデータセットを相乗的に組み合わせる統一原則を取得することは、しばしば困難である。
これを解決するために、ビジョンランゲージ事前学習モデル (VLP) のような事前訓練されたマルチモーダル基礎モデルの最近の進歩に触発され、化学における様々な下流タスクに使用できる新しいマルチモーダル基礎モデルを提案する。
具体的には, 分子構造と化学特性を共通埋め込み空間で整列させるために, X 形状の二重ストリーム変換器をベースとした構造固有マルチモーダル(SPMM)基盤モデルを構築した。
これにより、SPMMは与えられた構造記述文字列から化学的性質を予測すると同時に、与えられた化学特性のための分子構造を生成することができる。
さらに,分子の特異な一様表現はマルチモーダル学習から発生し,他の多くの下流タスクに対して微調整を行う可能性があることを示す。
関連論文リスト
- Generative Modeling of Molecular Dynamics Trajectories [12.255021091552441]
データからMDの柔軟なマルチタスクサロゲートモデルを学ぶためのパラダイムとして,分子軌道の生成モデルを提案する。
このような生成モデルは,前方シミュレーションや遷移経路サンプリング,軌道上アップサンプリングといった多様なタスクに適応可能であることを示す。
論文 参考訳(メタデータ) (2024-09-26T13:02:28Z) - Instruction Multi-Constraint Molecular Generation Using a Teacher-Student Large Language Model [49.64512917330373]
本稿では,学生に類似した多制約分子生成大言語モデルTSMMGを紹介する。
TSMMGを訓練するために、これらの「教師」から分子知識を抽出し、大量のテキスト-分子対を構築する。
我々は,TSMMGが複雑で自然言語で記述された特性を満たす分子を生成できることを実験的に明らかにした。
論文 参考訳(メタデータ) (2024-03-20T02:15:55Z) - Integrating Chemical Language and Molecular Graph in Multimodal Fused Deep Learning for Drug Property Prediction [9.388979080270103]
分子表現の異なる多モード深層学習モデルを構築した。
モノモーダルモデルと比較すると,マルチモーダルフューズドディープラーニング(MMFDL)モデルは単一モデルよりも精度,信頼性,耐雑音性に優れている。
論文 参考訳(メタデータ) (2023-12-29T07:19:42Z) - Molecule Design by Latent Space Energy-Based Modeling and Gradual
Distribution Shifting [53.44684898432997]
化学的・生物学的性質が望ましい分子の生成は、薬物発見にとって重要である。
本稿では,分子の結合分布とその特性を捉える確率的生成モデルを提案する。
本手法は種々の分子設計タスクにおいて非常に強力な性能を発揮する。
論文 参考訳(メタデータ) (2023-06-09T03:04:21Z) - Supervised Pretraining for Molecular Force Fields and Properties
Prediction [16.86839767858162]
本研究では, 原子電荷と3次元ジオメトリーを入力とし, 分子エネルギーをラベルとする8800万分子のデータセット上で, ニューラルネットワークを事前学習することを提案する。
実験により、スクラッチからのトレーニングと比較して、事前訓練されたモデルを微調整すると、7つの分子特性予測タスクと2つの力場タスクのパフォーマンスが大幅に向上することが示された。
論文 参考訳(メタデータ) (2022-11-23T08:36:50Z) - Improving Molecular Pretraining with Complementary Featurizations [20.86159731100242]
分子プレトレーニング(英: molecular pretraining)は、計算化学と薬物発見における様々な課題を解決するためのパラダイムである。
化学情報を異なる方法で伝達できることが示される。
我々は, 簡易で効果的な分子事前学習フレームワーク(MOCO)を提案する。
論文 参考訳(メタデータ) (2022-09-29T21:11:09Z) - A Molecular Multimodal Foundation Model Associating Molecule Graphs with
Natural Language [63.60376252491507]
本稿では,分子グラフとその意味的関連テキストデータから事前学習した分子マルチモーダル基礎モデルを提案する。
我々のモデルは、生物学、化学、材料、環境、医学などの分野において、AIを動力とする分野に幅広い影響を与えるだろうと考えています。
論文 参考訳(メタデータ) (2022-09-12T00:56:57Z) - Molecular Attributes Transfer from Non-Parallel Data [57.010952598634944]
分子最適化をスタイル伝達問題として定式化し、非並列データの2つのグループ間の内部差を自動的に学習できる新しい生成モデルを提案する。
毒性修飾と合成性向上という2つの分子最適化タスクの実験により,本モデルがいくつかの最先端手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2021-11-30T06:10:22Z) - Learning Neural Generative Dynamics for Molecular Conformation
Generation [89.03173504444415]
分子グラフから分子コンフォメーション(つまり3d構造)を生成する方法を検討した。
分子グラフから有効かつ多様なコンフォーメーションを生成する新しい確率論的枠組みを提案する。
論文 参考訳(メタデータ) (2021-02-20T03:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。