論文の概要: Learning Multi-view Molecular Representations with Structured and Unstructured Knowledge
- arxiv url: http://arxiv.org/abs/2406.09841v1
- Date: Fri, 14 Jun 2024 08:48:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 14:24:30.142060
- Title: Learning Multi-view Molecular Representations with Structured and Unstructured Knowledge
- Title(参考訳): 構造的・非構造的知識を用いた多視点分子表現の学習
- Authors: Yizhen Luo, Kai Yang, Massimo Hong, Xing Yi Liu, Zikun Nie, Hao Zhou, Zaiqing Nie,
- Abstract要約: 本稿では, 化学構造から多視点分子知識を抽出する表現学習モデルMV-Mol, バイオメディカルテキストからの非構造化知識, 知識グラフからの構造化知識について述べる。
MV-Molは分子特性予測に有効であることを示す。
- 参考スコア(独自算出の注目度): 14.08112359246334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Capturing molecular knowledge with representation learning approaches holds significant potential in vast scientific fields such as chemistry and life science. An effective and generalizable molecular representation is expected to capture the consensus and complementary molecular expertise from diverse views and perspectives. However, existing works fall short in learning multi-view molecular representations, due to challenges in explicitly incorporating view information and handling molecular knowledge from heterogeneous sources. To address these issues, we present MV-Mol, a molecular representation learning model that harvests multi-view molecular expertise from chemical structures, unstructured knowledge from biomedical texts, and structured knowledge from knowledge graphs. We utilize text prompts to model view information and design a fusion architecture to extract view-based molecular representations. We develop a two-stage pre-training procedure, exploiting heterogeneous data of varying quality and quantity. Through extensive experiments, we show that MV-Mol provides improved representations that substantially benefit molecular property prediction. Additionally, MV-Mol exhibits state-of-the-art performance in multi-modal comprehension of molecular structures and texts. Code and data are available at https://github.com/PharMolix/OpenBioMed.
- Abstract(参考訳): 表現学習アプローチによる分子知識の獲得は、化学や生命科学のような広大な科学分野において大きな可能性を秘めている。
効果的で一般化可能な分子表現は、多様な視点と視点から、コンセンサスと相補的な分子の専門知識を捉えることが期待されている。
しかし、ビュー情報を明示的に組み込んだり、異種源からの分子知識を扱うことの難しさから、既存の研究は多視点分子表現の学習に不足している。
これらの課題に対処するために,化学構造から多視点分子知識を抽出する分子表現学習モデルMV-Mol,生医学テキストからの非構造化知識,知識グラフからの構造化知識を提案する。
テキストプロンプトを用いてビュー情報をモデル化し、融合アーキテクチャを設計し、ビューに基づく分子表現を抽出する。
本研究では,異なる品質と量の異種データを利用した2段階事前学習手法を開発した。
広範な実験により,MV-Molは分子特性予測に有効となる改良された表現を提供することを示した。
さらに、MV-Molは、分子構造やテキストのマルチモーダル理解において最先端のパフォーマンスを示す。
コードとデータはhttps://github.com/PharMolix/OpenBioMed.comで公開されている。
関連論文リスト
- Mol-LLaMA: Towards General Understanding of Molecules in Large Molecular Language Model [55.87790704067848]
Mol-LLaMAは、分子を中心とした一般的な知識をマルチモーダル命令チューニングによって把握する大規模な分子言語モデルである。
分子の特徴の理解を深めるために,異なる分子エンコーダの相補的な情報を統合するモジュールを導入する。
論文 参考訳(メタデータ) (2025-02-19T05:49:10Z) - Knowledge-aware contrastive heterogeneous molecular graph learning [77.94721384862699]
分子グラフを不均一な分子グラフ学習(KCHML)に符号化するパラダイムシフトを提案する。
KCHMLは、不均一な分子グラフと二重メッセージパッシング機構によって強化された3つの異なるグラフビュー-分子、元素、薬理学-を通して分子を概念化する。
この設計は、プロパティ予測やドラッグ・ドラッグ・インタラクション(DDI)予測などの下流タスクに対する包括的な表現を提供する。
論文 参考訳(メタデータ) (2025-02-17T11:53:58Z) - MOL-Mamba: Enhancing Molecular Representation with Structural & Electronic Insights [23.55889965960128]
MOL-Mambaは構造的および電子的洞察を組み合わせることで分子表現を強化するフレームワークである。
MOL-Mambaは11の化学生物学的分子データセットで最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-12-21T04:48:57Z) - FARM: Functional Group-Aware Representations for Small Molecules [55.281754551202326]
小型分子のための機能的グループ認識表現(FARM)について紹介する。
FARMはSMILES、自然言語、分子グラフのギャップを埋めるために設計された基礎モデルである。
MoleculeNetデータセット上でFARMを厳格に評価し、12タスク中10タスクで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-10-02T23:04:58Z) - Data-Efficient Molecular Generation with Hierarchical Textual Inversion [48.816943690420224]
分子生成のための階層型テキスト変換法 (HI-Mol) を提案する。
HI-Molは分子分布を理解する上での階層的情報、例えば粗い特徴ときめ細かい特徴の重要性にインスパイアされている。
単一レベルトークン埋め込みを用いた画像領域の従来のテキストインバージョン法と比較して, マルチレベルトークン埋め込みにより, 基礎となる低ショット分子分布を効果的に学習することができる。
論文 参考訳(メタデータ) (2024-05-05T08:35:23Z) - Instruction Multi-Constraint Molecular Generation Using a Teacher-Student Large Language Model [49.64512917330373]
本稿では,学生に類似した多制約分子生成大言語モデルTSMMGを紹介する。
TSMMGを訓練するために、これらの「教師」から分子知識を抽出し、大量のテキスト-分子対を構築する。
我々は,TSMMGが複雑で自然言語で記述された特性を満たす分子を生成できることを実験的に明らかにした。
論文 参考訳(メタデータ) (2024-03-20T02:15:55Z) - MolFM: A Multimodal Molecular Foundation Model [9.934141536012596]
MolFMは分子構造、バイオメディカルテキスト、知識グラフからの共同表現学習を容易にするために設計された多モード分子基盤モデルである。
我々は,同分子の異なるモジュラリティ間の特徴空間における距離を最小化することにより,我々のクロスモーダル事前学習が局所的および大域的分子知識を捕捉する理論解析を行う。
クロスモーダル検索では、MolFMは既存のモデルよりも12.13%、絶対利得は5.04%、ゼロショットと微調整がそれぞれ優れている。
論文 参考訳(メタデータ) (2023-06-06T12:45:15Z) - A Molecular Multimodal Foundation Model Associating Molecule Graphs with
Natural Language [63.60376252491507]
本稿では,分子グラフとその意味的関連テキストデータから事前学習した分子マルチモーダル基礎モデルを提案する。
我々のモデルは、生物学、化学、材料、環境、医学などの分野において、AIを動力とする分野に幅広い影響を与えるだろうと考えています。
論文 参考訳(メタデータ) (2022-09-12T00:56:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。