論文の概要: Structured Chemistry Reasoning with Large Language Models
- arxiv url: http://arxiv.org/abs/2311.09656v1
- Date: Thu, 16 Nov 2023 08:20:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 15:47:01.263955
- Title: Structured Chemistry Reasoning with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた構造化化学推論
- Authors: Siru Ouyang, Zhuosheng Zhang, Bing Yan, Xuan Liu, Jiawei Han, Lianhui
Qin
- Abstract要約: InstructChemは構造化推論手法であり、大規模言語モデル(LLM)の化学的推論能力を大幅に向上させる。
量子化学、量子力学、物理化学、化学力学を含む4つの異なる化学課題について実験を行う。
本手法は化学推論において GPT-4 を著しく向上させ, 8% の平均絶対改善, 30% のピーク改善をもたらす。
- 参考スコア(独自算出の注目度): 39.37721417174572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the problem of solving complex chemistry problems with
large language models (LLMs). Despite the extensive general knowledge in LLMs
(such as GPT-4), they struggle with chemistry reasoning that requires faithful
grounded reasoning with diverse chemical knowledge and an integrative
understanding of chemical interactions. We propose InstructChem, a new
structured reasoning approach that substantially boosts the LLMs' chemical
reasoning capabilities. InstructChem explicitly decomposes the reasoning into
three critical phrases, including chemical formulae generation by LLMs that
offers the basis for subsequent grounded reasoning, step-by-step reasoning that
makes multi-step derivations with the identified formulae for a preliminary
answer, and iterative review-and-refinement that steers LLMs to progressively
revise the previous phases for increasing confidence, leading to the final
high-confidence answer. We conduct extensive experiments on four different
chemistry challenges, including quantum chemistry, quantum mechanics, physical
chemistry, and chemistry kinetics. Our approach significantly enhances GPT-4 on
chemistry reasoning, yielding an 8% average absolute improvement and a 30% peak
improvement. We further use the generated reasoning by GPT-4 to fine-tune
smaller LMs (e.g., Vicuna) and observe strong improvement of the smaller LMs.
This validates our approach and enables LLMs to generate high-quality
reasoning.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)を用いた複雑な化学問題の解法について検討する。
llm(gpt-4など)に関する広範な知識にもかかわらず、化学的な推論には様々な化学知識と化学相互作用の統合的な理解を必要とする。
我々は,LSMの化学的推論能力を大幅に向上させる新しい構造的推論手法であるInstructChemを提案する。
InstructChemは、後続の根拠付き推論の基礎を提供するLCMによる化学式の生成、事前回答のために特定された公式と多段階の導出を行うステップバイステップの推論、LCMが信頼を高めるために前のフェーズを段階的に修正する反復的なレビュー・アンド・リファインメントを含む3つの重要なフレーズを明示的に分解する。
量子化学、量子力学、物理化学、化学力学を含む4つの異なる化学課題について広範な実験を行う。
本手法は化学推論において GPT-4 を著しく向上させ, 8% の平均絶対改善, 30% のピーク改善をもたらす。
我々はさらに、GPT-4による生成推論を用いて、より小さなLM(例えば、Vicuna)を微調整し、より小さなLMの強い改善を観察する。
これにより、我々のアプローチを検証し、LLMが高品質な推論を作成できる。
関連論文リスト
- MOOSE-Chem: Large Language Models for Rediscovering Unseen Chemistry Scientific Hypotheses [72.39144388083712]
化学仮説の大多数は、研究の背景といくつかのインスピレーションから得られると仮定する。
これらの問題を調査するため,我々は,自然,科学,あるいは2024年に公表された51の化学論文からなるベンチマークを構築した。
全ての論文は化学博士課程の学生によって背景、インスピレーション、仮説の3つの構成要素に分けられる。
目的は、背景と大きなランダムに選択された化学文献コーパスのみを考慮し、仮説を再発見することである。
論文 参考訳(メタデータ) (2024-10-09T17:19:58Z) - ChemEval: A Comprehensive Multi-Level Chemical Evaluation for Large Language Models [62.37850540570268]
この領域の既存のベンチマークは、化学研究専門家の特定の要求を適切に満たさない。
ChemEvalは化学の4つの重要な進歩レベルを特定し、42の異なる化学タスクで12次元のLCMを評価する。
その結果, LLMは文献の理解と指導に優れる一方で, 高度な化学知識を必要とするタスクでは不足していることがわかった。
論文 参考訳(メタデータ) (2024-09-21T02:50:43Z) - ChemVLM: Exploring the Power of Multimodal Large Language Models in Chemistry Area [50.15254966969718]
textbfChemVLMは、化学応用のためのオープンソースの化学マルチモーダル大規模言語モデルである。
ChemVLMは、テキストと視覚の化学情報の両方を理解する能力を高めるために、慎重にキュレートされたバイリンガルデータセットで訓練されている。
我々はChemVLMを、様々なタスクにおいて、オープンソースおよびプロプライエタリな多モーダルな大規模言語モデルに対してベンチマークする。
論文 参考訳(メタデータ) (2024-08-14T01:16:40Z) - ChemLLM: A Chemical Large Language Model [49.308528569982805]
大規模言語モデル(LLM)は化学応用において顕著な進歩を遂げた。
しかし、コミュニティには化学に特化したLLMが欠落している。
本稿では,化学に特化した最初のLLMを特徴とする包括的フレームワークであるChemLLMを紹介する。
論文 参考訳(メタデータ) (2024-02-10T01:11:59Z) - ChemDFM: A Large Language Foundation Model for Chemistry [27.864255196445324]
より汎用的で効率的なソリューションは、多くのタスクに対処し、幅広い化学分野における自由形式の対話をサポートするAIモデルである。
我々は化学文献や教科書から34Bトークンを学習し、2.7Mインストラクションを用いて微調整した化学用LLMのパイオニアであるChemDFMを開発した。
我々はHuggingface上のChemDFMの推論コード、評価データセット、モデルウェイトをオープンソース化した。
論文 参考訳(メタデータ) (2024-01-26T12:45:55Z) - SciBench: Evaluating College-Level Scientific Problem-Solving Abilities of Large Language Models [70.5763210869525]
拡張ベンチマークスイートSciBench for Large Language Model (LLM)を導入する。
SciBenchには、数学、化学、物理学の分野から、さまざまな大学レベルの科学的問題を含むデータセットが含まれている。
その結果、現在のLLMは満足のいく性能を達成できないことが判明し、全体のスコアは43.22%に過ぎなかった。
論文 参考訳(メタデータ) (2023-07-20T07:01:57Z) - What can Large Language Models do in chemistry? A comprehensive
benchmark on eight tasks [41.9830989458936]
自然言語処理タスクに強力な能力を持つ大規模言語モデル(LLM)が出現している。
化学領域全体にわたる幅広いタスクにおいてLLMの能力を評価することを目的としている。
論文 参考訳(メタデータ) (2023-05-27T14:17:33Z) - ChemCrow: Augmenting large-language models with chemistry tools [0.9195187117013247]
大規模言語モデル(LLM)は、領域全体にわたるタスクにおいて高いパフォーマンスを示してきたが、化学に関連した問題に悩まされている。
本研究では, 有機合成, 創薬, 材料設計における課題を遂行するLLM化学剤であるChemCrowを紹介する。
我々のエージェントは、昆虫の忌避剤である3種の有機触媒の合成を自律的に計画し、実行し、新しいクロモフォアの発見を導いた。
論文 参考訳(メタデータ) (2023-04-11T17:41:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。