論文の概要: Multi-modal Molecule Structure-text Model for Text-based Retrieval and
Editing
- arxiv url: http://arxiv.org/abs/2212.10789v3
- Date: Mon, 29 Jan 2024 22:09:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 19:51:21.600729
- Title: Multi-modal Molecule Structure-text Model for Text-based Retrieval and
Editing
- Title(参考訳): テキスト検索と編集のためのマルチモーダル分子構造テキストモデル
- Authors: Shengchao Liu, Weili Nie, Chengpeng Wang, Jiarui Lu, Zhuoran Qiao,
Ling Liu, Jian Tang, Chaowei Xiao, Anima Anandkumar
- Abstract要約: 分子の化学構造とテキスト記述を共同で学習し, マルチモーダルな分子構造テキストモデル, MoleculeSTMを提案する。
実験において、分子STMは、新しい生化学的概念を創出するための最先端の一般化能力を得る。
- 参考スコア(独自算出の注目度): 107.49804059269212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is increasing adoption of artificial intelligence in drug discovery.
However, existing studies use machine learning to mainly utilize the chemical
structures of molecules but ignore the vast textual knowledge available in
chemistry. Incorporating textual knowledge enables us to realize new drug
design objectives, adapt to text-based instructions and predict complex
biological activities. Here we present a multi-modal molecule structure-text
model, MoleculeSTM, by jointly learning molecules' chemical structures and
textual descriptions via a contrastive learning strategy. To train MoleculeSTM,
we construct a large multi-modal dataset, namely, PubChemSTM, with over 280,000
chemical structure-text pairs. To demonstrate the effectiveness and utility of
MoleculeSTM, we design two challenging zero-shot tasks based on text
instructions, including structure-text retrieval and molecule editing.
MoleculeSTM has two main properties: open vocabulary and compositionality via
natural language. In experiments, MoleculeSTM obtains the state-of-the-art
generalization ability to novel biochemical concepts across various benchmarks.
- Abstract(参考訳): 薬物発見における人工知能の採用が増加している。
しかし、既存の研究では機械学習を用いて分子の化学構造を主に利用しているが、化学で得られる膨大な知識を無視している。
テキスト知識を取り入れることで,新しい薬物設計目標の実現,テキストに基づく指示の適応,複雑な生物活動の予測が可能になる。
本稿では,分子の化学構造とテキスト記述を対照的な学習戦略により共同で学習することで,マルチモーダルな分子構造テキストモデル,MoleculeSTMを提案する。
MoleculeSTMをトレーニングするために,280,000以上の化学構造テキストペアを持つPubChemSTMという,大規模なマルチモーダルデータセットを構築した。
MoleculeSTMの有効性と有用性を示すために、構造テキスト検索や分子編集を含むテキスト命令に基づく2つの難易度ゼロショットタスクを設計する。
MoleculeSTMには、オープン語彙と自然言語による構成性という2つの主要な性質がある。
実験において、分子STMは様々なベンチマークで新しい生化学的概念を創出する最先端の一般化能力を得る。
関連論文リスト
- MolParser: End-to-end Visual Recognition of Molecule Structures in the Wild [23.78185449646608]
両端から端までの新しい化学構造認識法であるモールについて述べる。
SMILES符号化法を用いて,最大のアノテート分子画像データセットである Mol-7M をアノテートする。
我々は、カリキュラム学習アプローチを用いて、エンドツーエンドの分子画像キャプションモデル、Molを訓練した。
論文 参考訳(メタデータ) (2024-11-17T15:00:09Z) - UniMoT: Unified Molecule-Text Language Model with Discrete Token Representation [35.51027934845928]
トークン化アーキテクチャを採用した統一分子テキストLLMであるUniMoTを紹介する。
ベクトル量子化駆動型トークン化器は、分子を因果依存性を持つ分子トークンの配列に変換する。
UniMoTは、分子間テキストとテキスト間タスクの両方を実行するマルチモーダル・ジェネラリストとして登場した。
論文 参考訳(メタデータ) (2024-08-01T18:31:31Z) - Vision Language Model is NOT All You Need: Augmentation Strategies for Molecule Language Models [43.26037039251725]
そこで本研究では,分子-テキスト対を構造的類似性保持損失で拡張するAMOLEを提案する。
また, 専門知識の少ない分子から, 専門知識の少ない分子へ, 知識を伝達する専門的再構築損失を提案する。
論文 参考訳(メタデータ) (2024-07-12T07:09:10Z) - Instruction Multi-Constraint Molecular Generation Using a Teacher-Student Large Language Model [49.64512917330373]
本稿では,学生に類似した多制約分子生成大言語モデルTSMMGを紹介する。
TSMMGを訓練するために、これらの「教師」から分子知識を抽出し、大量のテキスト-分子対を構築する。
我々は,TSMMGが複雑で自然言語で記述された特性を満たす分子を生成できることを実験的に明らかにした。
論文 参考訳(メタデータ) (2024-03-20T02:15:55Z) - Bridging Text and Molecule: A Survey on Multimodal Frameworks for Molecule [16.641797535842752]
本稿では,分子研究のためのマルチモーダルフレームワークに関する最初の体系的研究について述べる。
分子深層学習の発展から始まり、テキストモダリティの関与の必要性を指摘する。
さらに, 大規模言語モデルの利用, 分子課題の促進, 創薬における重要な応用について検討した。
論文 参考訳(メタデータ) (2024-03-07T03:03:13Z) - Leveraging Biomolecule and Natural Language through Multi-Modal
Learning: A Survey [75.47055414002571]
生物分子モデリングと自然言語(BL)の統合は、人工知能、化学、生物学の交差点において有望な学際領域として現れてきた。
生体分子と自然言語の相互モデリングによって達成された最近の進歩について分析する。
論文 参考訳(メタデータ) (2024-03-03T14:59:47Z) - Interactive Molecular Discovery with Natural Language [69.89287960545903]
対象分子を記述・編集するための自然言語を用いた対話型分子設計を提案する。
この課題をより良くするために、実験プロパティ情報を注入することによって強化された知識的で汎用的な生成事前学習モデルChatMolを設計する。
論文 参考訳(メタデータ) (2023-06-21T02:05:48Z) - MolXPT: Wrapping Molecules with Text for Generative Pre-training [141.0924452870112]
MolXPTは、テキストでラップされたSMILESで事前訓練されたテキストと分子の統一言語モデルである。
MolXPT は MoleculeNet 上での分子特性予測の強いベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-18T03:58:19Z) - A Molecular Multimodal Foundation Model Associating Molecule Graphs with
Natural Language [63.60376252491507]
本稿では,分子グラフとその意味的関連テキストデータから事前学習した分子マルチモーダル基礎モデルを提案する。
我々のモデルは、生物学、化学、材料、環境、医学などの分野において、AIを動力とする分野に幅広い影響を与えるだろうと考えています。
論文 参考訳(メタデータ) (2022-09-12T00:56:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。