論文の概要: ChemMLLM: Chemical Multimodal Large Language Model
- arxiv url: http://arxiv.org/abs/2505.16326v1
- Date: Thu, 22 May 2025 07:32:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.12017
- Title: ChemMLLM: Chemical Multimodal Large Language Model
- Title(参考訳): ChemMLLM: 化学多モード大言語モデル
- Authors: Qian Tan, Dongzhan Zhou, Peng Xia, Wanhao Liu, Wanli Ouyang, Lei Bai, Yuqiang Li, Tianfan Fu,
- Abstract要約: 分子理解と生成のための化学多モーダル大規模言語モデルであるChemMLLMを提案する。
また、テキスト、分子SMILES文字列、画像にまたがる5つのマルチモーダルタスクを設計し、データセットをキュレートする。
実験結果から,ChemMLLMは評価された全てのタスクにおいて優れた性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 52.95382215206681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal large language models (MLLMs) have made impressive progress in many applications in recent years. However, chemical MLLMs that can handle cross-modal understanding and generation remain underexplored. To fill this gap, in this paper, we propose ChemMLLM, a unified chemical multimodal large language model for molecule understanding and generation. Also, we design five multimodal tasks across text, molecular SMILES strings, and image, and curate the datasets. We benchmark ChemMLLM against a range of general leading MLLMs and Chemical LLMs on these tasks. Experimental results show that ChemMLLM achieves superior performance across all evaluated tasks. For example, in molecule image optimization task, ChemMLLM outperforms the best baseline (GPT-4o) by 118.9\% (4.27 vs 1.95 property improvement). The code is publicly available at https://github.com/bbsbz/ChemMLLM.git.
- Abstract(参考訳): MLLM(Multimodal large language model)は近年,多くのアプリケーションにおいて顕著な進歩を遂げている。
しかし、クロスモーダルな理解と生成を扱える化学MLLMはいまだ未発見のままである。
このギャップを埋めるために,分子理解と生成のための化学多モード大言語モデルであるChemMLLMを提案する。
また、テキスト、分子SMILES文字列、画像にまたがる5つのマルチモーダルタスクを設計し、データセットをキュレートする。
これらの課題に対して、ChemMLLMを一般的なMLLMとChemical LLMとをベンチマークする。
実験結果から,ChemMLLMは評価された全てのタスクにおいて優れた性能を発揮することが示された。
例えば、分子画像最適化タスクでは、ChemMLLMは118.9\%(4.27対1.95のプロパティ改善)で最高のベースライン(GPT-4o)を上回っている。
コードはhttps://github.com/bbsbz/ChemMLLM.gitで公開されている。
関連論文リスト
- SmileyLlama: Modifying Large Language Models for Directed Chemical Space Exploration [2.6421122712076244]
我々は,Large Language Model (LLM) がケミカル言語モデル (CLM) の基礎モデルとして機能することを示す。
我々はLSMを訓練して、薬物開発に特有な分子の生成などのプロンプトに反応できることを実証した。
論文 参考訳(メタデータ) (2024-09-03T18:59:20Z) - ChemVLM: Exploring the Power of Multimodal Large Language Models in Chemistry Area [50.15254966969718]
textbfChemVLMは、化学応用のためのオープンソースの化学マルチモーダル大規模言語モデルである。
ChemVLMは、テキストと視覚の化学情報の両方を理解する能力を高めるために、慎重にキュレートされたバイリンガルデータセットで訓練されている。
我々はChemVLMを、様々なタスクにおいて、オープンソースおよびプロプライエタリな多モーダルな大規模言語モデルに対してベンチマークする。
論文 参考訳(メタデータ) (2024-08-14T01:16:40Z) - ChemLLM: A Chemical Large Language Model [49.308528569982805]
大規模言語モデル(LLM)は化学応用において顕著な進歩を遂げた。
しかし、コミュニティには化学に特化したLLMが欠落している。
本稿では,化学に特化した最初のLLMを特徴とする包括的フレームワークであるChemLLMを紹介する。
論文 参考訳(メタデータ) (2024-02-10T01:11:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。