論文の概要: MolMetaLM: a Physicochemical Knowledge-Guided Molecular Meta Language Model
- arxiv url: http://arxiv.org/abs/2411.15500v1
- Date: Sat, 23 Nov 2024 09:27:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:19:48.810421
- Title: MolMetaLM: a Physicochemical Knowledge-Guided Molecular Meta Language Model
- Title(参考訳): MolMetaLM: 物理化学知識誘導分子メタ言語モデル
- Authors: Yifan Wu, Min Zeng, Yang Li, Yang Zhang, Min Li,
- Abstract要約: 本稿では,分子メタ言語フレームワーク MolMetaLM を提案する。
我々は、同じS(分子)を共有する複数のS,P,O>知識トリプルとしてフォーマットされた分子特化メタ言語パラダイムを設計する。
異なる分子知識とノイズを導入することで、メタ言語パラダイムは数万の事前学習タスクを生成する。
- 参考スコア(独自算出の注目度): 19.458584012046646
- License:
- Abstract: Most current molecular language models transfer the masked language model or image-text generation model from natural language processing to molecular field. However, molecules are not solely characterized by atom/bond symbols; they encapsulate important physical/chemical properties. Moreover, normal language models bring grammar rules that are irrelevant for understanding molecules. In this study, we propose a novel physicochemical knowledge-guided molecular meta language framework MolMetaLM. We design a molecule-specialized meta language paradigm, formatted as multiple <S,P,O> (subject, predicate, object) knowledge triples sharing the same S (i.e., molecule) to enhance learning the semantic relationships between physicochemical knowledge and molecules. By introducing different molecular knowledge and noises, the meta language paradigm generates tens of thousands of pretraining tasks. By recovering the token/sequence/order-level noises, MolMetaLM exhibits proficiency in large-scale benchmark evaluations involving property prediction, molecule generation, conformation inference, and molecular optimization. Through MolMetaLM, we offer a new insight for designing language models.
- Abstract(参考訳): 現在のほとんどの分子言語モデルでは、マスク付き言語モデルや画像テキスト生成モデルが自然言語処理から分子場に変換されている。
しかし、分子は原子/結合のシンボルによってのみ特徴づけられるのではなく、重要な物理的・化学的性質をカプセル化している。
さらに、正規言語モデルは、分子を理解するのに無関係な文法規則をもたらす。
本研究では,分子メタ言語フレームワークMolMetaLMを提案する。
我々は, 物理化学的知識と分子間の意味的関係を学習するために, 同じS(分子)を共有する複数の<S,P,O>知識(主観的, 述語的, 対象的)トリプルとして形式化された分子特異的メタ言語パラダイムを設計する。
異なる分子知識とノイズを導入することで、メタ言語パラダイムは数万の事前学習タスクを生成する。
トークン/シーケンス/オーダーレベルのノイズを回復することにより、MolMetaLMはプロパティ予測、分子生成、コンフォメーション推論、分子最適化を含む大規模なベンチマーク評価に熟練度を示す。
MolMetaLMを通じて、言語モデルを設計するための新しい洞察を提供する。
関連論文リスト
- Mol-LLaMA: Towards General Understanding of Molecules in Large Molecular Language Model [55.87790704067848]
Mol-LLaMAは、分子を中心とした一般的な知識をマルチモーダル命令チューニングによって把握する大規模な分子言語モデルである。
分子の特徴の理解を深めるために,異なる分子エンコーダの相補的な情報を統合するモジュールを導入する。
論文 参考訳(メタデータ) (2025-02-19T05:49:10Z) - Knowledge-aware contrastive heterogeneous molecular graph learning [77.94721384862699]
分子グラフを不均一な分子グラフ学習(KCHML)に符号化するパラダイムシフトを提案する。
KCHMLは、不均一な分子グラフと二重メッセージパッシング機構によって強化された3つの異なるグラフビュー-分子、元素、薬理学-を通して分子を概念化する。
この設計は、プロパティ予測やドラッグ・ドラッグ・インタラクション(DDI)予測などの下流タスクに対する包括的な表現を提供する。
論文 参考訳(メタデータ) (2025-02-17T11:53:58Z) - Chemical Language Model Linker: blending text and molecules with modular adapters [2.2667044928324747]
我々は、ChemLML(ChemLML)という、軽量なアダプタベースの戦略を提案する。
ChemLMLは2つの単一ドメインモデルをブレンドし、テキスト記述から条件付き分子生成を得る。
SMILESとSELFIESのChemLMLにおける分子表現の選択は,条件付き分子生成性能に強い影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2024-10-26T13:40:13Z) - Interactive Molecular Discovery with Natural Language [69.89287960545903]
対象分子を記述・編集するための自然言語を用いた対話型分子設計を提案する。
この課題をより良くするために、実験プロパティ情報を注入することによって強化された知識的で汎用的な生成事前学習モデルChatMolを設計する。
論文 参考訳(メタデータ) (2023-06-21T02:05:48Z) - Empowering Molecule Discovery for Molecule-Caption Translation with Large Language Models: A ChatGPT Perspective [53.300288393173204]
大規模言語モデル(LLM)は、様々なクロスモーダルタスクにおいて顕著なパフォーマンスを示している。
本研究では,分子カプセル翻訳のためのインコンテキストFew-Shot Molecule Learningパラダイムを提案する。
分子理解とテキストベースの分子生成を含む分子キャプション翻訳におけるMollReGPTの有効性を評価する。
論文 参考訳(メタデータ) (2023-06-11T08:16:25Z) - Domain-Agnostic Molecular Generation with Chemical Feedback [44.063584808910896]
MolGenは、分子生成に特化した事前訓練された分子言語モデルである。
1億以上の分子SELFIESを再構成することで構造的および文法的な洞察を内部化する。
我々の化学フィードバックパラダイムは、モデルを分子幻覚から遠ざけ、モデルの推定確率と実世界の化学的嗜好との整合性を確保する。
論文 参考訳(メタデータ) (2023-01-26T17:52:56Z) - A Molecular Multimodal Foundation Model Associating Molecule Graphs with
Natural Language [63.60376252491507]
本稿では,分子グラフとその意味的関連テキストデータから事前学習した分子マルチモーダル基礎モデルを提案する。
我々のモデルは、生物学、化学、材料、環境、医学などの分野において、AIを動力とする分野に幅広い影響を与えるだろうと考えています。
論文 参考訳(メタデータ) (2022-09-12T00:56:57Z) - Learning Latent Space Energy-Based Prior Model for Molecule Generation [59.875533935578375]
分子モデリングのためのSMILES表現を用いた潜時空間エネルギーに基づく先行モデルについて学習する。
本手法は,最先端モデルと競合する妥当性と特異性を持つ分子を生成することができる。
論文 参考訳(メタデータ) (2020-10-19T09:34:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。