論文の概要: ChemLLM: A Chemical Large Language Model
- arxiv url: http://arxiv.org/abs/2402.06852v1
- Date: Sat, 10 Feb 2024 01:11:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 18:54:33.604916
- Title: ChemLLM: A Chemical Large Language Model
- Title(参考訳): ChemLLM: 化学大言語モデル
- Authors: Di Zhang, Wei Liu, Qian Tan, Jingdan Chen, Hang Yan, Yuliang Yan,
Jiatong Li, Weiran Huang, Xiangyu Yue, Dongzhan Zhou, Shufei Zhang, Mao Su,
Hansen Zhong, Yuqiang Li, Wanli Ouyang
- Abstract要約: 大規模言語モデル(LLM)は化学応用において顕著な進歩を遂げた。
ChemLLMは化学に特化した最初の大規模言語モデルである。
ChemLLMは化学の3つの主要なタスク全てでGPT-3.5を破る。
- 参考スコア(独自算出の注目度): 50.32558290635367
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have made impressive progress in chemistry
applications, including molecular property prediction, molecular generation,
experimental protocol design, etc. However, the community lacks a
dialogue-based model specifically designed for chemistry. The challenge arises
from the fact that most chemical data and scientific knowledge are primarily
stored in structured databases, and the direct use of these structured data
compromises the model's ability to maintain coherent dialogue. To tackle this
issue, we develop a novel template-based instruction construction method that
transforms structured knowledge into plain dialogue, making it suitable for
language model training. By leveraging this approach, we develop ChemLLM, the
first large language model dedicated to chemistry, capable of performing
various tasks across chemical disciplines with smooth dialogue interaction.
ChemLLM beats GPT-3.5 on all three principal tasks in chemistry, i.e., name
conversion, molecular caption, and reaction prediction, and surpasses GPT-4 on
two of them. Remarkably, ChemLLM also shows exceptional adaptability to related
mathematical and physical tasks despite being trained mainly on
chemical-centric corpora. Furthermore, ChemLLM demonstrates proficiency in
specialized NLP tasks within chemistry, such as literature translation and
cheminformatic programming. ChemLLM opens up a new avenue for exploration
within chemical studies, while our method of integrating structured chemical
knowledge into dialogue systems sets a new frontier for developing LLMs across
various scientific fields. Codes, Datasets, and Model weights are publicly
accessible at hf.co/AI4Chem/ChemLLM-7B-Chat.
- Abstract(参考訳): 大規模言語モデル(LLM)は、分子特性予測、分子生成、実験的プロトコル設計など、化学応用において顕著な進歩を遂げている。
しかし、コミュニティには化学に特化した対話ベースのモデルがない。
この課題は、ほとんどの化学データと科学知識が主に構造化データベースに格納されているという事実から生じ、これらの構造化データの直接利用は、一貫性のある対話を維持するモデルの能力を損なう。
この問題に対処するために,構造化知識を平易な対話に変換し,言語モデル学習に適したテンプレートベースの命令構築手法を開発した。
このアプローチを活用することで、化学に特化した最初の大規模言語モデルであるChemLLMを開発し、スムーズな対話相互作用を持つ化学分野にまたがる様々なタスクを実行できる。
ChemLLMは化学における3つの主要なタスク、すなわち名前変換、分子キャプション、反応予測においてGPT-3.5を破り、2つでGPT-4を上回っている。
興味深いことに、ChemLLMは、主に化学中心のコーパスで訓練されているにもかかわらず、関連する数学的および物理的タスクに例外的な適応性を示す。
さらに、ChemLLMは、文学翻訳やケミノフォマティックプログラミングのような化学における特殊なNLPタスクの習熟度を示す。
ChemLLMは、化学研究の新たな道を開く一方、構造化化学知識を対話システムに統合する手法は、様々な科学分野にまたがるLSMを開発するための新たなフロンティアとなる。
コード、データセット、モデルウェイトはhf.co/AI4Chem/ChemLLM-7B-Chatで公開されている。
関連論文リスト
- ChemEval: A Comprehensive Multi-Level Chemical Evaluation for Large Language Models [62.37850540570268]
この領域の既存のベンチマークは、化学研究専門家の特定の要求を適切に満たさない。
ChemEvalは化学の4つの重要な進歩レベルを特定し、42の異なる化学タスクで12次元のLCMを評価する。
その結果, LLMは文献の理解と指導に優れる一方で, 高度な化学知識を必要とするタスクでは不足していることがわかった。
論文 参考訳(メタデータ) (2024-09-21T02:50:43Z) - ChemVLM: Exploring the Power of Multimodal Large Language Models in Chemistry Area [50.15254966969718]
textbfChemVLMは、化学応用のためのオープンソースの化学マルチモーダル大規模言語モデルである。
ChemVLMは、テキストと視覚の化学情報の両方を理解する能力を高めるために、慎重にキュレートされたバイリンガルデータセットで訓練されている。
我々はChemVLMを、様々なタスクにおいて、オープンソースおよびプロプライエタリな多モーダルな大規模言語モデルに対してベンチマークする。
論文 参考訳(メタデータ) (2024-08-14T01:16:40Z) - ChemDFM: A Large Language Foundation Model for Chemistry [27.864255196445324]
より汎用的で効率的なソリューションは、多くのタスクに対処し、幅広い化学分野における自由形式の対話をサポートするAIモデルである。
我々は化学文献や教科書から34Bトークンを学習し、2.7Mインストラクションを用いて微調整した化学用LLMのパイオニアであるChemDFMを開発した。
我々はHuggingface上のChemDFMの推論コード、評価データセット、モデルウェイトをオープンソース化した。
論文 参考訳(メタデータ) (2024-01-26T12:45:55Z) - Structured Chemistry Reasoning with Large Language Models [70.13959639460015]
大規模言語モデル(LLMs)は様々な分野において優れているが、特に化学において複雑な科学的推論に苦慮している。
所望のガイダンスを提供し,LSMの化学的推論能力を大幅に向上させる,シンプルで効果的なプロンプト戦略であるStructChemを紹介した。
量子化学、力学、物理化学、運動学の4分野にわたる試験では、StructChemはGPT-4の性能を大幅に向上させ、最大30%のピーク改善を実現している。
論文 参考訳(メタデータ) (2023-11-16T08:20:36Z) - Chemist-X: Large Language Model-empowered Agent for Reaction Condition Recommendation in Chemical Synthesis [57.70772230913099]
Chemist-Xは、検索増強生成(RAG)技術を用いた化学合成において、反応条件レコメンデーション(RCR)タスクを自動化する。
Chemist-Xはオンラインの分子データベースを尋問し、最新の文献データベースから重要なデータを蒸留する。
Chemist-Xは化学者の作業量を大幅に減らし、より根本的で創造的な問題に集中できるようにする。
論文 参考訳(メタデータ) (2023-11-16T01:21:33Z) - What can Large Language Models do in chemistry? A comprehensive
benchmark on eight tasks [41.9830989458936]
自然言語処理タスクに強力な能力を持つ大規模言語モデル(LLM)が出現している。
化学領域全体にわたる幅広いタスクにおいてLLMの能力を評価することを目的としている。
論文 参考訳(メタデータ) (2023-05-27T14:17:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。