論文の概要: ChemBOMAS: Accelerated BO in Chemistry with LLM-Enhanced Multi-Agent System
- arxiv url: http://arxiv.org/abs/2509.08736v1
- Date: Wed, 10 Sep 2025 16:24:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.503686
- Title: ChemBOMAS: Accelerated BO in Chemistry with LLM-Enhanced Multi-Agent System
- Title(参考訳): ケムボーマ:LCM強化マルチエージェントシステムによる化学におけるBOの加速
- Authors: Dong Han, Zhehong Ai, Pengxiang Cai, Shuzhou Sun, Shanya Lu, Jianpeng Chen, Ben Gao, Lingli Ge, Weida Wang, Xiangxin Zhou, Xihui Liu, Mao Su, Wanli Ouyang, Lei Bai, Dongzhan Zhou, Tao XU, Yuqiang Li, Shufei Zhang,
- Abstract要約: ChemBOMAS は LLM-Enhanced Multi-Agent System と呼ばれる新しいフレームワークで、BO を化学で加速する。
ChemBOMASは、知識駆動の粗粒度最適化とデータ駆動の細粒度最適化の2つの戦略を採用している。
ベンチマーク評価により、ChemBOMASは最適化効率と効率を大幅に向上することを確認した。
- 参考スコア(独自算出の注目度): 73.5577082290523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The efficiency of Bayesian optimization (BO) in chemistry is often hindered by sparse experimental data and complex reaction mechanisms. To overcome these limitations, we introduce ChemBOMAS, a new framework named LLM-Enhanced Multi-Agent System for accelerating BO in chemistry. ChemBOMAS's optimization process is enhanced by LLMs and synergistically employs two strategies: knowledge-driven coarse-grained optimization and data-driven fine-grained optimization. First, in the knowledge-driven coarse-grained optimization stage, LLMs intelligently decompose the vast search space by reasoning over existing chemical knowledge to identify promising candidate regions. Subsequently, in the data-driven fine-grained optimization stage, LLMs enhance the BO process within these candidate regions by generating pseudo-data points, thereby improving data utilization efficiency and accelerating convergence. Benchmark evaluations** further confirm that ChemBOMAS significantly enhances optimization effectiveness and efficiency compared to various BO algorithms. Importantly, the practical utility of ChemBOMAS was validated through wet-lab experiments conducted under pharmaceutical industry protocols, targeting conditional optimization for a previously unreported and challenging chemical reaction. In the wet experiment, ChemBOMAS achieved an optimal objective value of 96%. This was substantially higher than the 15% achieved by domain experts. This real-world success, together with strong performance on benchmark evaluations, highlights ChemBOMAS as a powerful tool to accelerate chemical discovery.
- Abstract(参考訳): 化学におけるベイズ最適化(BO)の効率は、しばしばスパース実験データと複雑な反応機構によって妨げられる。
これらの制約を克服するため,化学におけるBOの促進を目的としたLLM-Enhanced Multi-Agent Systemという新しいフレームワークであるChemBOMASを紹介した。
ChemBOMASの最適化プロセスはLLMによって強化され、知識駆動の粗粒度最適化とデータ駆動の細粒度最適化という2つの戦略を相乗的に採用している。
第一に、知識駆動の粗粒度最適化の段階では、LLMは既存の化学知識を推論して巨大な探索空間を知的に分解し、有望な候補領域を特定する。
その後、データ駆動の微粒化最適化段階において、LLMは擬似データポイントを生成することにより、これらの候補領域内のBOプロセスを強化し、データ利用効率を改善し、収束を加速する。
ベンチマーク評価**は、ChemBOMASが様々なBOアルゴリズムと比較して最適化効率と効率を大幅に向上することを確認する。
重要なことに、ChemBOMASの実用性は、これまで報告されていなかった化学反応の条件最適化を目標として、製薬業界のプロトコルの下で行われた湿式実験によって検証された。
湿式実験では、ChemBOMASは96%の最適目標値を達成した。
これは、ドメインの専門家が達成した15%よりも大幅に高かった。
この現実世界の成功は、ベンチマーク評価の強力なパフォーマンスとともに、化学発見を加速するための強力なツールとしてChemBOMASを強調している。
関連論文リスト
- Pre-trained knowledge elevates large language models beyond traditional chemical reaction optimizers [0.0]
大規模言語モデル(LLM)における事前学習知識がこのパラダイムを根本的に変えることを実証する。
LLM-GOは、伝統的な手法が苦労するところを正確に表現している: 数学的最適化よりもドメイン理解を必要とする複雑なカテゴリー空間。
論文 参考訳(メタデータ) (2025-08-27T21:09:51Z) - Reasoning BO: Enhancing Bayesian Optimization with Long-Context Reasoning Power of LLMs [13.478684527247129]
本稿では、推論モデルを利用してBOのサンプリングプロセスを導出する新しいフレームワークであるReasoning BOを設計する。
推論BO(Reasoning BO)は、実証可能な科学的理論に基づく批判的な洞察とともに、リアルタイムサンプリングレコメンデーションを提供する。
このフレームワークは、リアルタイムの洞察と仮説の進化を通じて、サンプリング戦略を段階的に洗練する能力を示している。
論文 参考訳(メタデータ) (2025-05-19T08:20:40Z) - Distilling and exploiting quantitative insights from Large Language Models for enhanced Bayesian optimization of chemical reactions [0.0]
大規模言語モデル (LLM) は基礎学習データに存在する化学情報が化学データ処理に有効であることを示した。
本研究では, LLMからの化学情報を抽出し, 反応条件のBOを加速し, 収率を最大化するために移動学習に利用できることを示す。
論文 参考訳(メタデータ) (2025-04-11T12:45:07Z) - DrugImproverGPT: A Large Language Model for Drug Optimization with Fine-Tuning via Structured Policy Optimization [53.27954325490941]
大規模言語モデル(LLM)の微調整は、特定の目的に向けて結果を生成するために不可欠である。
本研究は,薬物最適化LSMに基づく生成モデルを微調整するための新しい強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-11T04:00:21Z) - The Dual-use Dilemma in LLMs: Do Empowering Ethical Capacities Make a Degraded Utility? [54.18519360412294]
大きな言語モデル(LLM)は、安全のための有害な要求を拒否することと、ユーティリティのための正当な要求を収容することのバランスをとる必要がある。
本稿では,DPO(Direct Preference Optimization)に基づくアライメントフレームワークを提案する。
我々は,DeepSeek-R1をベンチマークでテストした結果を解析し,この高い評価を得たモデルがもたらす批判的倫理的懸念を明らかにする。
論文 参考訳(メタデータ) (2025-01-20T06:35:01Z) - Ranking over Regression for Bayesian Optimization and Molecule Selection [0.0680892187976602]
本稿ではランキングモデルを用いたランクベースベイズ最適化(RBO)を提案する。
本稿では, 各種化学データセットにおける従来のBOと比較して, RBOの最適化性能について包括的に検討する。
RBOはレグレッションベースのBOに代わる有効な代替品であり、特に新規化合物の最適化に有効である。
論文 参考訳(メタデータ) (2024-10-11T22:38:14Z) - Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - Applying Multi-Fidelity Bayesian Optimization in Chemistry: Open Challenges and Major Considerations [0.0]
MFBO(Multifidelity Bayesian Optimization)は、所望の最大コストに最適化するために、様々な品質とリソースコストの実験的あるいは計算的なデータを活用する。
本稿では,MFBOの分子や物質の同定を高速化するための応用について検討する。
論文 参考訳(メタデータ) (2024-09-11T11:22:17Z) - Optimizing Molecules using Efficient Queries from Property Evaluations [66.66290256377376]
汎用的なクエリベースの分子最適化フレームワークであるQMOを提案する。
QMOは効率的なクエリに基づいて入力分子の所望の特性を改善する。
QMOは, 有機分子を最適化するベンチマークタスクにおいて, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-03T18:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。