論文の概要: ChemBOMAS: Accelerated BO in Chemistry with LLM-Enhanced Multi-Agent System
- arxiv url: http://arxiv.org/abs/2509.08736v2
- Date: Mon, 10 Nov 2025 15:52:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 19:11:14.300232
- Title: ChemBOMAS: Accelerated BO in Chemistry with LLM-Enhanced Multi-Agent System
- Title(参考訳): ケムボーマ:LCM強化マルチエージェントシステムによる化学におけるBOの加速
- Authors: Dong Han, Zhehong Ai, Pengxiang Cai, Shanya Lu, Jianpeng Chen, Zihao Ye, Shuzhou Sun, Ben Gao, Lingli Ge, Weida Wang, Xiangxin Zhou, Xihui Liu, Mao Su, Wanli Ouyang, Lei Bai, Dongzhan Zhou, Tao Xu, Yuqiang Li, Shufei Zhang,
- Abstract要約: 本稿では,大規模言語モデル(LLM)によるベイズ最適化を高速化するマルチエージェントシステムであるChemBOMASを紹介する。
データ駆動型戦略は、わずか1%のラベル付きサンプルに微調整された8BスケールのLCMレジストレータを含む。
知識駆動型戦略では、検索空間の分割においてLLMを導くために、ハイブリッドなRetrieval-Augmented Generationアプローチを採用している。
ChemBOMASはベースライン方式に比べて最適化効率を最大5倍に向上させた。
- 参考スコア(独自算出の注目度): 72.63341091857959
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian optimization (BO) is a powerful tool for scientific discovery in chemistry, yet its efficiency is often hampered by the sparse experimental data and vast search space. Here, we introduce ChemBOMAS: a large language model (LLM)-enhanced multi-agent system that accelerates BO through synergistic data- and knowledge-driven strategies. Firstly, the data-driven strategy involves an 8B-scale LLM regressor fine-tuned on a mere 1% labeled samples for pseudo-data generation, robustly initializing the optimization process. Secondly, the knowledge-driven strategy employs a hybrid Retrieval-Augmented Generation approach to guide LLM in dividing the search space while mitigating LLM hallucinations. An Upper Confidence Bound algorithm then identifies high-potential subspaces within this established partition. Across the LLM-refined subspaces and supported by LLM-generated data, BO achieves the improvement of effectiveness and efficiency. Comprehensive evaluations across multiple scientific benchmarks demonstrate that ChemBOMAS set a new state-of-the-art, accelerating optimization efficiency by up to 5-fold compared to baseline methods.
- Abstract(参考訳): ベイズ最適化(BO)は化学における科学的発見の強力なツールであるが、その効率は希薄な実験データと広大な探索空間によって妨げられることが多い。
本稿では,大規模言語モデル(LLM)を用いたマルチエージェントシステムであるChemBOMASについて紹介する。
第一に、データ駆動戦略は、擬似データ生成のための1%のラベル付きサンプルに微調整された8BスケールのLCMレジストレータを伴い、最適化プロセスを堅牢に初期化する。
第2に、知識駆動型戦略では、LLMの幻覚を緩和しつつ、検索空間を分割する際のLLMの誘導に、ハイブリッドなRetrieval-Augmented Generationアプローチを採用している。
アッパー信頼境界アルゴリズムは、この確立されたパーティション内の高ポテンシャル部分空間を同定する。
LLM-refined subspaces と LLM の生成したデータによって支えられ、BO は有効性と効率を向上させる。
複数の科学的ベンチマークによる総合的な評価は、ChemBOMASがベースライン法と比較して最大5倍の最適化効率を向上する新しい最先端技術を構築したことを示している。
関連論文リスト
- Pre-trained knowledge elevates large language models beyond traditional chemical reaction optimizers [0.0]
大規模言語モデル(LLM)における事前学習知識がこのパラダイムを根本的に変えることを実証する。
LLM-GOは、伝統的な手法が苦労するところを正確に表現している: 数学的最適化よりもドメイン理解を必要とする複雑なカテゴリー空間。
論文 参考訳(メタデータ) (2025-08-27T21:09:51Z) - Reasoning BO: Enhancing Bayesian Optimization with Long-Context Reasoning Power of LLMs [13.478684527247129]
本稿では、推論モデルを利用してBOのサンプリングプロセスを導出する新しいフレームワークであるReasoning BOを設計する。
推論BO(Reasoning BO)は、実証可能な科学的理論に基づく批判的な洞察とともに、リアルタイムサンプリングレコメンデーションを提供する。
このフレームワークは、リアルタイムの洞察と仮説の進化を通じて、サンプリング戦略を段階的に洗練する能力を示している。
論文 参考訳(メタデータ) (2025-05-19T08:20:40Z) - Distilling and exploiting quantitative insights from Large Language Models for enhanced Bayesian optimization of chemical reactions [0.0]
大規模言語モデル (LLM) は基礎学習データに存在する化学情報が化学データ処理に有効であることを示した。
本研究では, LLMからの化学情報を抽出し, 反応条件のBOを加速し, 収率を最大化するために移動学習に利用できることを示す。
論文 参考訳(メタデータ) (2025-04-11T12:45:07Z) - DrugImproverGPT: A Large Language Model for Drug Optimization with Fine-Tuning via Structured Policy Optimization [53.27954325490941]
大規模言語モデル(LLM)の微調整は、特定の目的に向けて結果を生成するために不可欠である。
本研究は,薬物最適化LSMに基づく生成モデルを微調整するための新しい強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-11T04:00:21Z) - The Dual-use Dilemma in LLMs: Do Empowering Ethical Capacities Make a Degraded Utility? [54.18519360412294]
大きな言語モデル(LLM)は、安全のための有害な要求を拒否することと、ユーティリティのための正当な要求を収容することのバランスをとる必要がある。
本稿では,DPO(Direct Preference Optimization)に基づくアライメントフレームワークを提案する。
我々は,DeepSeek-R1をベンチマークでテストした結果を解析し,この高い評価を得たモデルがもたらす批判的倫理的懸念を明らかにする。
論文 参考訳(メタデータ) (2025-01-20T06:35:01Z) - Ranking over Regression for Bayesian Optimization and Molecule Selection [0.0680892187976602]
本稿ではランキングモデルを用いたランクベースベイズ最適化(RBO)を提案する。
本稿では, 各種化学データセットにおける従来のBOと比較して, RBOの最適化性能について包括的に検討する。
RBOはレグレッションベースのBOに代わる有効な代替品であり、特に新規化合物の最適化に有効である。
論文 参考訳(メタデータ) (2024-10-11T22:38:14Z) - Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - Applying Multi-Fidelity Bayesian Optimization in Chemistry: Open Challenges and Major Considerations [0.0]
MFBO(Multifidelity Bayesian Optimization)は、所望の最大コストに最適化するために、様々な品質とリソースコストの実験的あるいは計算的なデータを活用する。
本稿では,MFBOの分子や物質の同定を高速化するための応用について検討する。
論文 参考訳(メタデータ) (2024-09-11T11:22:17Z) - Optimizing Molecules using Efficient Queries from Property Evaluations [66.66290256377376]
汎用的なクエリベースの分子最適化フレームワークであるQMOを提案する。
QMOは効率的なクエリに基づいて入力分子の所望の特性を改善する。
QMOは, 有機分子を最適化するベンチマークタスクにおいて, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-03T18:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。