論文の概要: Distilling and exploiting quantitative insights from Large Language Models for enhanced Bayesian optimization of chemical reactions
- arxiv url: http://arxiv.org/abs/2504.08874v1
- Date: Fri, 11 Apr 2025 12:45:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:54:38.557717
- Title: Distilling and exploiting quantitative insights from Large Language Models for enhanced Bayesian optimization of chemical reactions
- Title(参考訳): 化学反応のベイズ最適化のための大規模言語モデルからの定量的洞察の蒸留と活用
- Authors: Roshan Patel, Saeed Moayedpour, Louis De Lescure, Lorenzo Kogler-Anele, Alan Cherney, Sven Jager, Yasser Jangjou,
- Abstract要約: 大規模言語モデル (LLM) は基礎学習データに存在する化学情報が化学データ処理に有効であることを示した。
本研究では, LLMからの化学情報を抽出し, 反応条件のBOを加速し, 収率を最大化するために移動学習に利用できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Machine learning and Bayesian optimization (BO) algorithms can significantly accelerate the optimization of chemical reactions. Transfer learning can bolster the effectiveness of BO algorithms in low-data regimes by leveraging pre-existing chemical information or data outside the direct optimization task (i.e., source data). Large language models (LLMs) have demonstrated that chemical information present in foundation training data can give them utility for processing chemical data. Furthermore, they can be augmented with and help synthesize potentially multiple modalities of source chemical data germane to the optimization task. In this work, we examine how chemical information from LLMs can be elicited and used for transfer learning to accelerate the BO of reaction conditions to maximize yield. Specifically, we show that a survey-like prompting scheme and preference learning can be used to infer a utility function which models prior chemical information embedded in LLMs over a chemical parameter space; we find that the utility function shows modest correlation to true experimental measurements (yield) over the parameter space despite operating in a zero-shot setting. Furthermore, we show that the utility function can be leveraged to focus BO efforts in promising regions of the parameter space, improving the yield of the initial BO query and enhancing optimization in 4 of the 6 datasets studied. Overall, we view this work as a step towards bridging the gap between the chemistry knowledge embedded in LLMs and the capabilities of principled BO methods to accelerate reaction optimization.
- Abstract(参考訳): 機械学習とベイズ最適化(BO)アルゴリズムは化学反応の最適化を大幅に加速させることができる。
転送学習は、直接最適化タスク(すなわち、ソースデータ)の外で既存の化学情報やデータを活用することで、低データのレシエーションにおけるBOアルゴリズムの有効性を高めることができる。
大規模言語モデル (LLM) は基礎学習データに存在する化学情報が化学データ処理に有効であることを示した。
さらに、最適化タスクに対して、ソース・ケミカルデータの潜在的な複数のモダリティを拡張し、合成するのに役立てることができる。
本研究では, LLMからの化学情報を抽出し, 反応条件のBOを加速し, 収率を最大化するために転写学習に利用する方法について検討する。
具体的には, 化学パラメータ空間上のLCMに埋め込まれた化学情報をモデル化した実用関数を, ゼロショット環境では動作しないにもかかわらず, 実測値(収率)とパラメータ空間上の実測値(収率)との適度な相関性を示す。
さらに,このユーティリティ関数を利用して,パラメータ空間の有望な領域にBOの取り組みを集中させ,最初のBOクエリの収量を改善するとともに,調査した6つのデータセットのうち4つにおいて最適化を向上することを示す。
全体として、この研究は、LLMに埋め込まれた化学知識と、反応最適化を加速する原則BO法の能力のギャップを埋めるためのステップであると考えている。
関連論文リスト
- ChemAgent: Self-updating Library in Large Language Models Improves Chemical Reasoning [64.2106664137118]
ChemAgentは,大規模言語モデル(LLM)の性能向上を目的とした,新しいフレームワークである。
化学タスクをサブタスクに分解し、これらのサブタスクを将来のクエリに参照可能な構造化されたコレクションにコンパイルすることで開発される。
新しい問題を提示すると、ChemAgentは、私たちがメモリと呼ぶライブラリから関連する情報を検索し、精査する。
論文 参考訳(メタデータ) (2025-01-11T17:10:30Z) - Text-Guided Multi-Property Molecular Optimization with a Diffusion Language Model [77.50732023411811]
変換器を用いた拡散言語モデル(TransDLM)を用いたテキスト誘導多目的分子最適化手法を提案する。
TransDLMは標準化された化学命名法を分子の意味表現として利用し、プロパティ要求をテキスト記述に暗黙的に埋め込む。
提案手法は, 分子構造類似性を最適化し, ベンチマークデータセットの化学的特性を向上するための最先端手法を超越した手法である。
論文 参考訳(メタデータ) (2024-10-17T14:30:27Z) - Ranking over Regression for Bayesian Optimization and Molecule Selection [0.0680892187976602]
本稿ではランキングモデルを用いたランクベースベイズ最適化(RBO)を提案する。
本稿では, 各種化学データセットにおける従来のBOと比較して, RBOの最適化性能について包括的に検討する。
RBOはレグレッションベースのBOに代わる有効な代替品であり、特に新規化合物の最適化に有効である。
論文 参考訳(メタデータ) (2024-10-11T22:38:14Z) - An Autonomous Large Language Model Agent for Chemical Literature Data
Mining [60.85177362167166]
本稿では,幅広い化学文献から高忠実度抽出が可能なエンドツーエンドAIエージェントフレームワークを提案する。
本フレームワークの有効性は,反応条件データの精度,リコール,F1スコアを用いて評価する。
論文 参考訳(メタデータ) (2024-02-20T13:21:46Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark [166.40879020706151]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z) - DrugAssist: A Large Language Model for Molecule Optimization [29.95488215594247]
DrugAssistは、人間と機械の対話を通じて最適化を行う対話型分子最適化モデルである。
DrugAssistは、単一および複数プロパティの最適化において、主要な結果を得た。
分子最適化タスクの微調整言語モデルのための,MomoOpt-Instructionsと呼ばれる大規模命令ベースデータセットを公開している。
論文 参考訳(メタデータ) (2023-12-28T10:46:56Z) - Learning Implicit Priors for Motion Optimization [105.11889448885226]
エネルギーベースモデル(EBM)は、表現力のある確率密度分布を表す。
本稿では,EMMを動作最適化に適用するために必要となるモデリングとアルゴリズムの選択について述べる。
論文 参考訳(メタデータ) (2022-04-11T19:14:54Z) - Improving Molecular Representation Learning with Metric
Learning-enhanced Optimal Transport [49.237577649802034]
分子レグレッション問題に対する一般化能力を高めるために,MROTと呼ばれる新しい最適輸送ベースアルゴリズムを開発した。
MROTは最先端のモデルよりも優れており、新しい物質の発見を加速する有望な可能性を示している。
論文 参考訳(メタデータ) (2022-02-13T04:56:18Z) - Scalable and Flexible Deep Bayesian Optimization with Auxiliary
Information for Scientific Problems [10.638330155988145]
ベイジアンニューラルネットワーク(BNN)を用いた複雑な構造問題に対するベイジアン最適化を提案する。
BNNは構造化データを扱うための表現力と柔軟性を持ち、補助情報を利用する。
BNN はサンプリング効率と計算コストの両面で BO の代用モデルとして GP よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-23T15:46:37Z) - CASTELO: Clustered Atom Subtypes aidEd Lead Optimization -- a combined
machine learning and molecular modeling method [2.8381402107366034]
我々は、リード最適化ワークフローを自動化する機械学習と分子モデリングを組み合わせたアプローチを提案する。
本手法は, 薬剤の有効性向上に有効な, ホットスポットの新規なヒントを提供する。
論文 参考訳(メタデータ) (2020-11-27T15:41:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。