論文の概要: Monte Carlo Thought Search: Large Language Model Querying for Complex
Scientific Reasoning in Catalyst Design
- arxiv url: http://arxiv.org/abs/2310.14420v1
- Date: Sun, 22 Oct 2023 21:29:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 23:49:01.434912
- Title: Monte Carlo Thought Search: Large Language Model Querying for Complex
Scientific Reasoning in Catalyst Design
- Title(参考訳): Monte Carlo Thought Search:触媒設計における複雑な科学的推論のための大規模言語モデルクエリ
- Authors: Henry W. Sprueill, Carl Edwards, Mariefel V. Olarte, Udishnu Sanyal,
Heng Ji, Sutanay Choudhury
- Abstract要約: 大規模言語モデル(LLM)は、複雑な命令に従う能力と高品質な推論を通じて化学の新たな能力を実証している。
本稿では,モンテカルロ木探索に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 42.3838742984173
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Discovering novel catalysts requires complex reasoning involving multiple
chemical properties and resultant trade-offs, leading to a combinatorial growth
in the search space. While large language models (LLM) have demonstrated novel
capabilities for chemistry through complex instruction following capabilities
and high quality reasoning, a goal-driven combinatorial search using LLMs has
not been explored in detail. In this work, we present a Monte Carlo Tree
Search-based approach that improves beyond state-of-the-art chain-of-thought
prompting variants to augment scientific reasoning. We introduce two new
reasoning datasets: 1) a curation of computational chemistry simulations, and
2) diverse questions written by catalysis researchers for reasoning about novel
chemical conversion processes. We improve over the best baseline by 25.8\% and
find that our approach can augment scientist's reasoning and discovery process
with novel insights.
- Abstract(参考訳): 新規触媒の発見には、複数の化学的性質と結果として生じるトレードオフを含む複雑な推論が必要である。
大規模言語モデル(LLM)は、複雑な命令に従う能力と高品質な推論を通じて化学の新たな能力を実証しているが、LLMを用いたゴール駆動組合せ探索は詳細は明らかにされていない。
そこで本研究では,モンテカルロ木探索に基づくアプローチを提案する。
2つの新しい推論データセットを紹介します
1)計算化学シミュレーションのキュレーション
2)新規な化学変換過程を推理するための触媒研究者による多様な質問。
ベストベースラインを25.8 %改善し、新しい洞察で科学者の推論と発見プロセスを強化することができることを発見した。
関連論文リスト
- AtomR: Atomic Operator-Empowered Large Language Models for Heterogeneous Knowledge Reasoning [38.736190591684]
AtomRは、新しい異種知識推論フレームワークである。
複雑な問題を3つの原子知識演算子の組み合わせに分解する。
AtomRは3つの単一ソースと2つのマルチソース推論ベンチマークで最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2024-11-25T15:35:51Z) - Self-Organization in Computation & Chemistry: Return to AlChemy [7.305979446312823]
1990年代、Walter Fontana と Leo Buss は $lambda$ として知られる公式な計算モデルに基づく新しいモデリング手法を提案した。
ここでは、この古典的なモデルであるAlChemyを再考する。
複雑で安定した組織は、以前予想されていたよりも頻繁に出現し、これらの組織は、自明な固定点への崩壊に対して堅牢であるが、これらの安定した組織は、より高次のエンティティに簡単に統合できない。
論文 参考訳(メタデータ) (2024-08-22T05:44:27Z) - BatGPT-Chem: A Foundation Large Model For Retrosynthesis Prediction [65.93303145891628]
BatGPT-Chemは150億のパラメータを持つ大規模な言語モデルであり、再合成予測の強化に最適化されている。
我々のモデルは幅広い化学知識を捉え、反応条件の正確な予測を可能にする。
この開発により、化学者は新しい化合物を十分に扱うことができ、医薬品製造と材料科学の革新サイクルを早める可能性がある。
論文 参考訳(メタデータ) (2024-08-19T05:17:40Z) - Improving Molecular Modeling with Geometric GNNs: an Empirical Study [56.52346265722167]
本稿では,異なる標準化手法,(2)グラフ作成戦略,(3)補助的なタスクが性能,拡張性,対称性の強制に与える影響に焦点をあてる。
本研究の目的は,分子モデリングタスクに最適なモデリングコンポーネントの選択を研究者に案内することである。
論文 参考訳(メタデータ) (2024-07-11T09:04:12Z) - LLM and Simulation as Bilevel Optimizers: A New Paradigm to Advance Physical Scientific Discovery [141.39722070734737]
本稿では,大規模言語モデルの知識駆動型抽象推論能力をシミュレーションの計算力で強化することを提案する。
本稿では,2段階最適化フレームワークであるSGA(Scientific Generative Agent)を紹介する。
法発見と分子設計における枠組みの有効性を実証するための実験を行った。
論文 参考訳(メタデータ) (2024-05-16T03:04:10Z) - ChemReasoner: Heuristic Search over a Large Language Model's Knowledge Space using Quantum-Chemical Feedback [37.06094829713273]
新しい触媒の発見は、新しいより効率的な化学プロセスの設計に不可欠である。
量子化学に基づく3次元原子論表現からのフィードバックで言語推論を統一するAI誘導型計算スクリーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-15T21:33:07Z) - Structured Chemistry Reasoning with Large Language Models [70.13959639460015]
大規模言語モデル(LLMs)は様々な分野において優れているが、特に化学において複雑な科学的推論に苦慮している。
所望のガイダンスを提供し,LSMの化学的推論能力を大幅に向上させる,シンプルで効果的なプロンプト戦略であるStructChemを紹介した。
量子化学、力学、物理化学、運動学の4分野にわたる試験では、StructChemはGPT-4の性能を大幅に向上させ、最大30%のピーク改善を実現している。
論文 参考訳(メタデータ) (2023-11-16T08:20:36Z) - T-SciQ: Teaching Multimodal Chain-of-Thought Reasoning via Mixed Large
Language Model Signals for Science Question Answering [59.63860993280275]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて例外的な性能を示した。
LLM信号を用いた科学質問応答の指導を目的とした,T-SciQと呼ばれる新しい手法を提案する。
提案手法は,ScienceQAベンチマークで96.18%の精度で,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-05T11:56:30Z) - ChemoVerse: Manifold traversal of latent spaces for novel molecule
discovery [0.7742297876120561]
所望の化学的性質を持つ分子構造を同定することが不可欠である。
ニューラルネットワークと機械学習を用いた生成モデルの最近の進歩は、薬物のような化合物の仮想ライブラリの設計に広く利用されている。
論文 参考訳(メタデータ) (2020-09-29T12:11:40Z) - TorsionNet: A Reinforcement Learning Approach to Sequential Conformer
Search [17.2131835813425]
剛性ロータ近似の下での強化学習に基づく効率的なシーケンシャルコンバータ探索手法を提案する。
以上の結果から,TorsionNetは大きなアルカンに対して4倍,未探索の生体高分子リグニンでは数桁,高い評価率のケモインフォマティクス法よりも優れていた。
論文 参考訳(メタデータ) (2020-06-12T11:03:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。