論文の概要: ChemCrow: Augmenting large-language models with chemistry tools
- arxiv url: http://arxiv.org/abs/2304.05376v4
- Date: Wed, 21 Jun 2023 17:28:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 17:24:50.731429
- Title: ChemCrow: Augmenting large-language models with chemistry tools
- Title(参考訳): ChemCrow: 化学ツールによる大規模言語モデルの強化
- Authors: Andres M Bran, Sam Cox, Andrew D White, Philippe Schwaller
- Abstract要約: 大規模言語モデル(LLM)は、領域全体のタスクにおいて強い性能を示すが、化学に関連した問題に悩まされている。
本研究では, 有機合成, 創薬, 材料設計における課題を遂行するLLM化学剤であるChemCrowを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the last decades, excellent computational chemistry tools have been
developed. Their full potential has not yet been reached as most are
challenging to learn and exist in isolation. Recently, large-language models
(LLMs) have shown strong performance in tasks across domains, but struggle with
chemistry-related problems. Moreover, these models lack access to external
knowledge sources, limiting their usefulness in scientific applications. In
this study, we introduce ChemCrow, an LLM chemistry agent designed to
accomplish tasks across organic synthesis, drug discovery, and materials
design. By integrating 17 expert-designed tools, ChemCrow augments the LLM
performance in chemistry, and new capabilities emerge. Our agent autonomously
planned the syntheses of an insect repellent, three organocatalysts, as well as
other relevant molecules. Our evaluation, including both LLM and expert
assessments, demonstrates ChemCrow's effectiveness in automating a diverse set
of chemical tasks. Surprisingly, we find that GPT-4 as an evaluator cannot
distinguish between clearly wrong GPT-4 completions and Chemcrow's performance.
There is a significant risk of misuse of tools like ChemCrow, and we discuss
their potential harms. Employed responsibly, our work not only aids expert
chemists and lowers barriers for non-experts, but also fosters scientific
advancement by bridging the gap between experimental and computational
chemistry. A subset of the code is publicly available at
\url{https://github.com/ur-whitelab/chemcrow-public}.
- Abstract(参考訳): 過去数十年間、優れた計算化学ツールが開発されてきた。
彼らの潜在能力は、ほとんどが学習し、孤立して存在するため、まだ到達していない。
近年,大規模言語モデル (LLM) は領域間のタスクにおいて高い性能を示したが,化学問題に苦慮している。
さらに、これらのモデルは外部の知識ソースにアクセスできず、科学的応用における有用性を制限している。
本研究では, 有機合成, 創薬, 材料設計における課題を遂行するLLM化学剤であるChemCrowを紹介する。
17のエキスパートが設計したツールを統合することで、化学におけるllmのパフォーマンスが向上し、新しい機能が出現する。
我々のエージェントは、昆虫忌避剤、3つの有機触媒、および他の関連分子の合成を自律的に計画した。
llmとエキスパートアセスメントの両方を含む評価は,化学タスクの多種多様な自動化におけるchemcrowの有効性を示す。
驚くべきことに,GPT-4を評価器として用いると,GPT-4の完成度とChemcrowの性能を区別できない。
chemcrowのようなツールの誤用には重大なリスクがあり、その潜在的な害について議論する。
我々の研究は、専門家の化学者を助けるだけでなく、実験化学と計算化学のギャップを埋めることによって科学的進歩を促進する。
コードのサブセットは \url{https://github.com/ur-whitelab/chemcrow-public} で公開されている。
関連論文リスト
- Are large language models superhuman chemists? [5.1611032009738205]
ケムベンチ(ChemBench)は、最先端モデルの化学知識と推論能力を厳格に評価する自動化されたフレームワークである。
我々は、化学科学の幅広いサブフィールドに対して7000以上の質問応答ペアをキュレートした。
私たちは、最高のモデルが、平均的な研究で最高の人間の化学者を上回っていることに気付きました。
論文 参考訳(メタデータ) (2024-04-01T20:56:25Z) - An Autonomous Large Language Model Agent for Chemical Literature Data
Mining [60.85177362167166]
本稿では,幅広い化学文献から高忠実度抽出が可能なエンドツーエンドAIエージェントフレームワークを提案する。
本フレームワークの有効性は,反応条件データの精度,リコール,F1スコアを用いて評価する。
論文 参考訳(メタデータ) (2024-02-20T13:21:46Z) - LlaSMol: Advancing Large Language Models for Chemistry with a Large-Scale, Comprehensive, High-Quality Instruction Tuning Dataset [13.063678216852473]
大規模言語モデル (LLMs) は, 包括的な化学タスクにおいて, 非常に強力な結果が得られることを示す。
命令チューニングのための大規模で包括的で高品質なデータセットであるSMolInstructを提案する。
SMolInstructを使ってオープンソースのLCMの集合を微調整し、その中のMistralが化学タスクの最良のベースモデルであることを示す。
論文 参考訳(メタデータ) (2024-02-14T18:42:25Z) - ChemLLM: A Chemical Large Language Model [49.308528569982805]
大規模言語モデル(LLM)は化学応用において顕著な進歩を遂げた。
しかし、コミュニティには化学に特化したLLMが欠落している。
本稿では,化学に特化した最初のLLMを特徴とする包括的フレームワークであるChemLLMを紹介する。
論文 参考訳(メタデータ) (2024-02-10T01:11:59Z) - Structured Chemistry Reasoning with Large Language Models [70.13959639460015]
大規模言語モデル(LLMs)は様々な分野において優れているが、特に化学において複雑な科学的推論に苦慮している。
所望のガイダンスを提供し,LSMの化学的推論能力を大幅に向上させる,シンプルで効果的なプロンプト戦略であるStructChemを紹介した。
量子化学、力学、物理化学、運動学の4分野にわたる試験では、StructChemはGPT-4の性能を大幅に向上させ、最大30%のピーク改善を実現している。
論文 参考訳(メタデータ) (2023-11-16T08:20:36Z) - Chemist-X: Large Language Model-empowered Agent for Reaction Condition Recommendation in Chemical Synthesis [57.70772230913099]
Chemist-Xは、検索増強生成(RAG)技術を用いた化学合成において、反応条件レコメンデーション(RCR)タスクを自動化する。
Chemist-Xはオンラインの分子データベースを尋問し、最新の文献データベースから重要なデータを蒸留する。
Chemist-Xは化学者の作業量を大幅に減らし、より根本的で創造的な問題に集中できるようにする。
論文 参考訳(メタデータ) (2023-11-16T01:21:33Z) - Empowering Molecule Discovery for Molecule-Caption Translation with Large Language Models: A ChatGPT Perspective [53.300288393173204]
大規模言語モデル(LLM)は、様々なクロスモーダルタスクにおいて顕著なパフォーマンスを示している。
本研究では,分子カプセル翻訳のためのインコンテキストFew-Shot Molecule Learningパラダイムを提案する。
分子理解とテキストベースの分子生成を含む分子キャプション翻訳におけるMollReGPTの有効性を評価する。
論文 参考訳(メタデータ) (2023-06-11T08:16:25Z) - What can Large Language Models do in chemistry? A comprehensive
benchmark on eight tasks [41.9830989458936]
自然言語処理タスクに強力な能力を持つ大規模言語モデル(LLM)が出現している。
化学領域全体にわたる幅広いタスクにおいてLLMの能力を評価することを目的としている。
論文 参考訳(メタデータ) (2023-05-27T14:17:33Z) - Federated Learning of Molecular Properties in a Heterogeneous Setting [79.00211946597845]
これらの課題に対処するために、フェデレーションヘテロジニアス分子学習を導入する。
フェデレートラーニングにより、エンドユーザは、独立したクライアント上に分散されたトレーニングデータを保存しながら、グローバルモデルを協調的に構築できる。
FedChemは、化学におけるAI改善のための新しいタイプのコラボレーションを可能にする必要がある。
論文 参考訳(メタデータ) (2021-09-15T12:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。