論文の概要: Monte Carlo Thought Search: Large Language Model Querying for Complex
Scientific Reasoning in Catalyst Design
- arxiv url: http://arxiv.org/abs/2310.14420v1
- Date: Sun, 22 Oct 2023 21:29:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 23:49:01.434912
- Title: Monte Carlo Thought Search: Large Language Model Querying for Complex
Scientific Reasoning in Catalyst Design
- Title(参考訳): Monte Carlo Thought Search:触媒設計における複雑な科学的推論のための大規模言語モデルクエリ
- Authors: Henry W. Sprueill, Carl Edwards, Mariefel V. Olarte, Udishnu Sanyal,
Heng Ji, Sutanay Choudhury
- Abstract要約: 大規模言語モデル(LLM)は、複雑な命令に従う能力と高品質な推論を通じて化学の新たな能力を実証している。
本稿では,モンテカルロ木探索に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 42.3838742984173
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Discovering novel catalysts requires complex reasoning involving multiple
chemical properties and resultant trade-offs, leading to a combinatorial growth
in the search space. While large language models (LLM) have demonstrated novel
capabilities for chemistry through complex instruction following capabilities
and high quality reasoning, a goal-driven combinatorial search using LLMs has
not been explored in detail. In this work, we present a Monte Carlo Tree
Search-based approach that improves beyond state-of-the-art chain-of-thought
prompting variants to augment scientific reasoning. We introduce two new
reasoning datasets: 1) a curation of computational chemistry simulations, and
2) diverse questions written by catalysis researchers for reasoning about novel
chemical conversion processes. We improve over the best baseline by 25.8\% and
find that our approach can augment scientist's reasoning and discovery process
with novel insights.
- Abstract(参考訳): 新規触媒の発見には、複数の化学的性質と結果として生じるトレードオフを含む複雑な推論が必要である。
大規模言語モデル(LLM)は、複雑な命令に従う能力と高品質な推論を通じて化学の新たな能力を実証しているが、LLMを用いたゴール駆動組合せ探索は詳細は明らかにされていない。
そこで本研究では,モンテカルロ木探索に基づくアプローチを提案する。
2つの新しい推論データセットを紹介します
1)計算化学シミュレーションのキュレーション
2)新規な化学変換過程を推理するための触媒研究者による多様な質問。
ベストベースラインを25.8 %改善し、新しい洞察で科学者の推論と発見プロセスを強化することができることを発見した。
関連論文リスト
- ChemAgent: Self-updating Library in Large Language Models Improves Chemical Reasoning [64.2106664137118]
ChemAgentは,大規模言語モデル(LLM)の性能向上を目的とした,新しいフレームワークである。
化学タスクをサブタスクに分解し、これらのサブタスクを将来のクエリに参照可能な構造化されたコレクションにコンパイルすることで開発される。
新しい問題を提示すると、ChemAgentは、私たちがメモリと呼ぶライブラリから関連する情報を検索し、精査する。
論文 参考訳(メタデータ) (2025-01-11T17:10:30Z) - From Generalist to Specialist: A Survey of Large Language Models for Chemistry [14.317448405387195]
大言語モデル(LLM)は我々の日常生活を大きく変え、自然言語処理(NLP)の新しいパラダイムを確立した。
LLMの大規模なWebベースのテキストへの事前学習は、特に化学において先進的な科学的発見には不十分である。
化学におけるプレトレインド言語モデル(PLM)について、いくつかの研究がレビューされているが、化学指向のLSMに特に焦点を絞った系統的な調査は、顕著に行われていない。
論文 参考訳(メタデータ) (2024-12-28T03:40:25Z) - Self-Organization in Computation & Chemistry: Return to AlChemy [7.305979446312823]
1990年代、Walter Fontana と Leo Buss は $lambda$ として知られる公式な計算モデルに基づく新しいモデリング手法を提案した。
ここでは、この古典的なモデルであるAlChemyを再考する。
複雑で安定した組織は、以前予想されていたよりも頻繁に出現し、これらの組織は、自明な固定点への崩壊に対して堅牢であるが、これらの安定した組織は、より高次のエンティティに簡単に統合できない。
論文 参考訳(メタデータ) (2024-08-22T05:44:27Z) - BatGPT-Chem: A Foundation Large Model For Retrosynthesis Prediction [65.93303145891628]
BatGPT-Chemは150億のパラメータを持つ大規模な言語モデルであり、再合成予測の強化に最適化されている。
我々のモデルは幅広い化学知識を捉え、反応条件の正確な予測を可能にする。
この開発により、化学者は新しい化合物を十分に扱うことができ、医薬品製造と材料科学の革新サイクルを早める可能性がある。
論文 参考訳(メタデータ) (2024-08-19T05:17:40Z) - LLM and Simulation as Bilevel Optimizers: A New Paradigm to Advance Physical Scientific Discovery [141.39722070734737]
本稿では,大規模言語モデルの知識駆動型抽象推論能力をシミュレーションの計算力で強化することを提案する。
本稿では,2段階最適化フレームワークであるSGA(Scientific Generative Agent)を紹介する。
法発見と分子設計における枠組みの有効性を実証するための実験を行った。
論文 参考訳(メタデータ) (2024-05-16T03:04:10Z) - ChemReasoner: Heuristic Search over a Large Language Model's Knowledge Space using Quantum-Chemical Feedback [37.06094829713273]
新しい触媒の発見は、新しいより効率的な化学プロセスの設計に不可欠である。
量子化学に基づく3次元原子論表現からのフィードバックで言語推論を統一するAI誘導型計算スクリーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-15T21:33:07Z) - Structured Chemistry Reasoning with Large Language Models [70.13959639460015]
大規模言語モデル(LLMs)は様々な分野において優れているが、特に化学において複雑な科学的推論に苦慮している。
所望のガイダンスを提供し,LSMの化学的推論能力を大幅に向上させる,シンプルで効果的なプロンプト戦略であるStructChemを紹介した。
量子化学、力学、物理化学、運動学の4分野にわたる試験では、StructChemはGPT-4の性能を大幅に向上させ、最大30%のピーク改善を実現している。
論文 参考訳(メタデータ) (2023-11-16T08:20:36Z) - T-SciQ: Teaching Multimodal Chain-of-Thought Reasoning via Mixed Large
Language Model Signals for Science Question Answering [59.63860993280275]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて例外的な性能を示した。
LLM信号を用いた科学質問応答の指導を目的とした,T-SciQと呼ばれる新しい手法を提案する。
提案手法は,ScienceQAベンチマークで96.18%の精度で,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-05T11:56:30Z) - ChemoVerse: Manifold traversal of latent spaces for novel molecule
discovery [0.7742297876120561]
所望の化学的性質を持つ分子構造を同定することが不可欠である。
ニューラルネットワークと機械学習を用いた生成モデルの最近の進歩は、薬物のような化合物の仮想ライブラリの設計に広く利用されている。
論文 参考訳(メタデータ) (2020-09-29T12:11:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。