論文の概要: ChemDFM: Dialogue Foundation Model for Chemistry
- arxiv url: http://arxiv.org/abs/2401.14818v1
- Date: Fri, 26 Jan 2024 12:45:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 15:16:20.668457
- Title: ChemDFM: Dialogue Foundation Model for Chemistry
- Title(参考訳): ChemDFM: 化学のための対話基盤モデル
- Authors: Zihan Zhao, Da Ma, Lu Chen, Liangtai Sun, Zihao Li, Hongshen Xu,
Zichen Zhu, Su Zhu, Shuai Fan, Guodong Shen, Xin Chen and Kai Yu
- Abstract要約: ChemDFM-13Bは、化学文献、教科書、命令から34Bトークンと、一般領域からの様々なデータに基づいて訓練されている。
高度な自由形式の言語理解能力を持ちながら、化学知識や言語を保存し、理解し、推論することができる。
ChemDFMは、大きな大きさの違いにもかかわらず、化学タスクの大部分でGPT-4を超えることができる。
- 参考スコア(独自算出の注目度): 27.804229420333137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have established great success in the general
domain of natural language processing. Their emerging task generalization and
free-form dialogue capabilities can greatly help to design Chemical General
Intelligence (CGI) to assist real-world research in chemistry. However, the
existence of specialized language and knowledge in the field of chemistry, such
as the highly informative SMILES notation, hinders the performance of
general-domain LLMs in chemistry. To this end, we develop ChemDFM, the first
LLM towards CGI. ChemDFM-13B is trained on 34B tokens from chemical literature,
textbooks, and instructions as well as various data from the general domain.
Therefore, it can store, understand, and reason over chemical knowledge and
languages while still possessing advanced free-form language comprehension
capabilities. Extensive quantitative evaluation shows that ChemDFM can
significantly outperform the representative open-sourced LLMs. Moreover,
ChemDFM can also surpass GPT-4 on a great portion of chemical tasks, despite
the significant size difference. Further qualitative evaluations demonstrate
the efficiency and effectiveness of ChemDFM in real-world research scenarios.
We will open-source the ChemDFM model soon.
- Abstract(参考訳): 大規模言語モデル(LLM)は自然言語処理の一般分野において大きな成功を収めている。
彼らのタスクの一般化と自由形式の対話能力は、化学における現実世界の研究を支援するためにCGI(Chemical General Intelligence)を設計するのに大いに役立つ。
しかし、化学分野における特殊言語と知識の存在、例えば高情報的なSMILES表記は、化学における一般ドメインLSMの性能を妨げている。
そこで我々は,CGIに向けた最初のLCMであるChemDFMを開発した。
chemdfm-13bは、化学文献、教科書、指示の34bトークンと一般ドメインの様々なデータに基づいて訓練されている。
したがって、高度な自由形式言語理解能力を持ちながら、化学知識や言語を保存、理解、推論することができる。
大規模な定量的評価の結果,ChemDFMはオープンソース LLM を著しく上回る性能を示した。
さらに、ChemDFMは、大きな大きさの違いにもかかわらず、多くの化学的なタスクにおいてGPT-4を超えることができる。
さらに質的な評価は、実際の研究シナリオにおけるChemDFMの有効性と有効性を示す。
近いうちにChemDFMモデルをオープンソース化します。
関連論文リスト
- ChemEval: A Comprehensive Multi-Level Chemical Evaluation for Large Language Models [62.37850540570268]
この領域の既存のベンチマークは、化学研究専門家の特定の要求を適切に満たさない。
ChemEvalは化学の4つの重要な進歩レベルを特定し、42の異なる化学タスクで12次元のLCMを評価する。
その結果, LLMは文献の理解と指導に優れる一方で, 高度な化学知識を必要とするタスクでは不足していることがわかった。
論文 参考訳(メタデータ) (2024-09-21T02:50:43Z) - ChemDFM-X: Towards Large Multimodal Model for Chemistry [16.811223849365483]
化学用クロスモーダル対話基盤モデル(ChemDFM-X)について紹介する。
近似計算とタスク固有モデル予測により、初期モダリティから、多様なマルチモーダルデータを生成する。
ChemDFM-Xは、様々なデータモダリティを持つ様々な化学タスクの広範な実験で評価される。
論文 参考訳(メタデータ) (2024-09-20T03:55:34Z) - ChemVLM: Exploring the Power of Multimodal Large Language Models in Chemistry Area [50.15254966969718]
textbfChemVLMは、化学応用のためのオープンソースの化学マルチモーダル大規模言語モデルである。
ChemVLMは、テキストと視覚の化学情報の両方を理解する能力を高めるために、慎重にキュレートされたバイリンガルデータセットで訓練されている。
我々はChemVLMを、様々なタスクにおいて、オープンソースおよびプロプライエタリな多モーダルな大規模言語モデルに対してベンチマークする。
論文 参考訳(メタデータ) (2024-08-14T01:16:40Z) - Are large language models superhuman chemists? [4.87961182129702]
大規模言語モデル(LLM)は、人間の言語を処理し、明示的に訓練されていないタスクを実行する能力によって、広く関心を集めている。
本稿では,最新のLCMの化学知識と推論能力を評価する自動化フレームワークであるChemBenchを紹介する。
我々は2700以上の質問応答ペアをキュレートし、主要なオープンソースとクローズドソースのLCMを評価し、最良のモデルが最高の化学者より優れていることを発見した。
論文 参考訳(メタデータ) (2024-04-01T20:56:25Z) - ChemLLM: A Chemical Large Language Model [49.308528569982805]
大規模言語モデル(LLM)は化学応用において顕著な進歩を遂げた。
しかし、コミュニティには化学に特化したLLMが欠落している。
本稿では,化学に特化した最初のLLMを特徴とする包括的フレームワークであるChemLLMを紹介する。
論文 参考訳(メタデータ) (2024-02-10T01:11:59Z) - Structured Chemistry Reasoning with Large Language Models [70.13959639460015]
大規模言語モデル(LLMs)は様々な分野において優れているが、特に化学において複雑な科学的推論に苦慮している。
所望のガイダンスを提供し,LSMの化学的推論能力を大幅に向上させる,シンプルで効果的なプロンプト戦略であるStructChemを紹介した。
量子化学、力学、物理化学、運動学の4分野にわたる試験では、StructChemはGPT-4の性能を大幅に向上させ、最大30%のピーク改善を実現している。
論文 参考訳(メタデータ) (2023-11-16T08:20:36Z) - Chemist-X: Large Language Model-empowered Agent for Reaction Condition Recommendation in Chemical Synthesis [57.70772230913099]
Chemist-Xは、検索増強生成(RAG)技術を用いた化学合成において、反応条件レコメンデーション(RCR)タスクを自動化する。
Chemist-Xはオンラインの分子データベースを尋問し、最新の文献データベースから重要なデータを蒸留する。
Chemist-Xは化学者の作業量を大幅に減らし、より根本的で創造的な問題に集中できるようにする。
論文 参考訳(メタデータ) (2023-11-16T01:21:33Z) - Empowering Molecule Discovery for Molecule-Caption Translation with Large Language Models: A ChatGPT Perspective [53.300288393173204]
大規模言語モデル(LLM)は、様々なクロスモーダルタスクにおいて顕著なパフォーマンスを示している。
本研究では,分子カプセル翻訳のためのインコンテキストFew-Shot Molecule Learningパラダイムを提案する。
分子理解とテキストベースの分子生成を含む分子キャプション翻訳におけるMollReGPTの有効性を評価する。
論文 参考訳(メタデータ) (2023-06-11T08:16:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。