論文の概要: A Molecular Multimodal Foundation Model Associating Molecule Graphs with
Natural Language
- arxiv url: http://arxiv.org/abs/2209.05481v1
- Date: Mon, 12 Sep 2022 00:56:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-14 12:17:10.079888
- Title: A Molecular Multimodal Foundation Model Associating Molecule Graphs with
Natural Language
- Title(参考訳): 分子グラフと自然言語を関連付けた分子マルチモーダル基礎モデル
- Authors: Bing Su, Dazhao Du, Zhao Yang, Yujie Zhou, Jiangmeng Li, Anyi Rao, Hao
Sun, Zhiwu Lu, Ji-Rong Wen
- Abstract要約: 本稿では,分子グラフとその意味的関連テキストデータから事前学習した分子マルチモーダル基礎モデルを提案する。
我々のモデルは、生物学、化学、材料、環境、医学などの分野において、AIを動力とする分野に幅広い影響を与えるだろうと考えています。
- 参考スコア(独自算出の注目度): 63.60376252491507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although artificial intelligence (AI) has made significant progress in
understanding molecules in a wide range of fields, existing models generally
acquire the single cognitive ability from the single molecular modality. Since
the hierarchy of molecular knowledge is profound, even humans learn from
different modalities including both intuitive diagrams and professional texts
to assist their understanding. Inspired by this, we propose a molecular
multimodal foundation model which is pretrained from molecular graphs and their
semantically related textual data (crawled from published Scientific Citation
Index papers) via contrastive learning. This AI model represents a critical
attempt that directly bridges molecular graphs and natural language.
Importantly, through capturing the specific and complementary information of
the two modalities, our proposed model can better grasp molecular expertise.
Experimental results show that our model not only exhibits promising
performance in cross-modal tasks such as cross-modal retrieval and molecule
caption, but also enhances molecular property prediction and possesses
capability to generate meaningful molecular graphs from natural language
descriptions. We believe that our model would have a broad impact on
AI-empowered fields across disciplines such as biology, chemistry, materials,
environment, and medicine, among others.
- Abstract(参考訳): 人工知能(AI)は幅広い分野における分子の理解に大きな進歩を遂げているが、既存のモデルは一般に単一の分子のモダリティから単一の認知能力を取得する。
分子知識の階層構造は深遠であるため、人間でさえ直感的な図形と専門的なテキストの両方を含む様々なモダリティから学び、理解を助ける。
そこで本研究では,分子グラフとその意味的関連テキストデータ(Science Citation Index論文からの引用)から,コントラスト学習を通じて事前学習した分子マルチモーダル基礎モデルを提案する。
このAIモデルは、分子グラフと自然言語を直接ブリッジする重要な試みである。
重要な点は, 2つの様相の特定の情報と補的情報を捉えることで, 提案するモデルが分子の専門知識をよりよく把握できることである。
実験の結果, クロスモーダル検索や分子キャプションなどのクロスモーダルタスクにおいて有望な性能を示すだけでなく, 分子特性の予測能力を高め, 自然言語記述から有意義な分子グラフを生成する能力を有することがわかった。
私たちのモデルは、生物学、化学、材料、環境、医学などの分野にまたがって、aiを応用した分野に幅広い影響を与えると信じています。
関連論文リスト
- Leveraging Biomolecule and Natural Language through Multi-Modal
Learning: A Survey [75.47055414002571]
生物分子モデリングと自然言語(BL)の統合は、人工知能、化学、生物学の交差点において有望な学際領域として現れてきた。
生体分子と自然言語の相互モデリングによって達成された最近の進歩について分析する。
論文 参考訳(メタデータ) (2024-03-03T14:59:47Z) - Integrating Chemical Language and Molecular Graph in Multimodal Fused
Deep Learning for Drug Property Prediction [9.948710779498487]
分子表現の異なる多モード深層学習モデルを構築した。
モノモーダルモデルと比較すると,マルチモーダルフューズドディープラーニング(MMFDL)モデルは単一モデルよりも精度,信頼性,耐雑音性に優れている。
論文 参考訳(メタデータ) (2023-12-29T07:19:42Z) - GIT-Mol: A Multi-modal Large Language Model for Molecular Science with
Graph, Image, and Text [25.979382232281786]
グラフ,画像,テキスト情報を統合したマルチモーダルな大規模言語モデルであるGIT-Molを紹介する。
特性予測の精度は5%-10%向上し、分子生成の妥当性は20.2%向上した。
論文 参考訳(メタデータ) (2023-08-14T03:12:29Z) - Interactive Molecular Discovery with Natural Language [69.89287960545903]
対象分子を記述・編集するための自然言語を用いた対話型分子設計を提案する。
この課題をより良くするために、実験プロパティ情報を注入することによって強化された知識的で汎用的な生成事前学習モデルChatMolを設計する。
論文 参考訳(メタデータ) (2023-06-21T02:05:48Z) - MolFM: A Multimodal Molecular Foundation Model [9.934141536012596]
MolFMは分子構造、バイオメディカルテキスト、知識グラフからの共同表現学習を容易にするために設計された多モード分子基盤モデルである。
我々は,同分子の異なるモジュラリティ間の特徴空間における距離を最小化することにより,我々のクロスモーダル事前学習が局所的および大域的分子知識を捕捉する理論解析を行う。
クロスモーダル検索では、MolFMは既存のモデルよりも12.13%、絶対利得は5.04%、ゼロショットと微調整がそれぞれ優れている。
論文 参考訳(メタデータ) (2023-06-06T12:45:15Z) - Bi-level Contrastive Learning for Knowledge-Enhanced Molecule
Representations [55.42602325017405]
本稿では,分子の2レベル構造を考慮した新しいGODE法を提案する。
異なるグラフ構造上で2つのグラフニューラルネットワーク(GNN)を事前訓練し、対照的な学習と組み合わせることで、GODEは分子構造を対応する知識グラフサブ構造と融合させる。
11の化学特性タスクを微調整した場合、我々のモデルは既存のベンチマークよりも優れており、分類タスクの平均ROC-AUCアップリフトは13.8%、回帰タスクの平均RMSE/MAEエンハンスメントは35.1%である。
論文 参考訳(メタデータ) (2023-06-02T15:49:45Z) - Atomic and Subgraph-aware Bilateral Aggregation for Molecular
Representation Learning [57.670845619155195]
我々は、原子とサブグラフを意識したバイラテラルアグリゲーション(ASBA)と呼ばれる分子表現学習の新しいモデルを導入する。
ASBAは、両方の種類の情報を統合することで、以前の原子単位とサブグラフ単位のモデルの限界に対処する。
本手法は,分子特性予測のための表現をより包括的に学習する方法を提供する。
論文 参考訳(メタデータ) (2023-05-22T00:56:00Z) - Implicit Geometry and Interaction Embeddings Improve Few-Shot Molecular
Property Prediction [53.06671763877109]
我々は, 複雑な分子特性を符号化した分子埋め込みを開発し, 数発の分子特性予測の性能を向上させる。
我々の手法は大量の合成データ、すなわち分子ドッキング計算の結果を利用する。
複数の分子特性予測ベンチマークでは、埋め込み空間からのトレーニングにより、マルチタスク、MAML、プロトタイプラーニング性能が大幅に向上する。
論文 参考訳(メタデータ) (2023-02-04T01:32:40Z) - Knowledge-aware Contrastive Molecular Graph Learning [5.08771973600915]
自己監督型分子表現学習のためのコントラシブナレッジアウェアGNN(CKGNN)を提案する。
私たちは、コントラスト学習フレームワークの下で知識認識分子エンコーダを介してドメイン知識を明示的にエンコードします。
8つの公開データセットの実験は、平均で6%の絶対的な改善と私たちのモデルの有効性を示しています。
論文 参考訳(メタデータ) (2021-03-24T08:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。