論文の概要: Pre-trained knowledge elevates large language models beyond traditional chemical reaction optimizers
- arxiv url: http://arxiv.org/abs/2509.00103v1
- Date: Wed, 27 Aug 2025 21:09:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.082682
- Title: Pre-trained knowledge elevates large language models beyond traditional chemical reaction optimizers
- Title(参考訳): 事前学習された知識は、伝統的な化学反応オプティマイザを超えて大きな言語モデルを増加させる
- Authors: Robert MacKnight, Jose Emilio Regio, Jeffrey G. Ethier, Luke A. Baldwin, Gabe Gomes,
- Abstract要約: 大規模言語モデル(LLM)における事前学習知識がこのパラダイムを根本的に変えることを実証する。
LLM-GOは、伝統的な手法が苦労するところを正確に表現している: 数学的最適化よりもドメイン理解を必要とする複雑なカテゴリー空間。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern optimization in experimental chemistry employs algorithmic search through black-box parameter spaces. Here we demonstrate that pre-trained knowledge in large language models (LLMs) fundamentally changes this paradigm. Using six fully enumerated categorical reaction datasets (768 - 5,684 experiments), we benchmark LLM-guided optimization (LLM-GO) against Bayesian optimization (BO) and random sampling. Frontier LLMs consistently match or exceed BO performance across five single-objective datasets, with advantages growing as parameter complexity increases and high-performing conditions become scarce (<5% of space). BO retains superiority only for explicit multi-objective trade-offs. To understand these contrasting behaviors, we introduce a topology-agnostic information theory framework quantifying sampling diversity throughout optimization campaigns. This analysis reveals that LLMs maintain systematically higher exploration entropy than BO across all datasets while achieving superior performance, with advantages most pronounced in solution-scarce parameter spaces where high-entropy exploration typically fails - suggesting that pre-trained domain knowledge enables more effective navigation of chemical parameter space rather than replacing structured exploration strategies. To enable transparent benchmarking and community validation, we release Iron Mind (https://gomes.andrew.cmu.edu/iron-mind), a no-code platform for side-by-side evaluation of human, algorithmic, and LLM optimization campaigns with public leaderboards and complete trajectories. Our findings establish that LLM-GO excels precisely where traditional methods struggle: complex categorical spaces requiring domain understanding rather than mathematical optimization.
- Abstract(参考訳): 実験化学における現代の最適化は、ブラックボックスパラメータ空間を通したアルゴリズムによる探索を用いる。
ここでは,大規模言語モデル(LLM)における事前学習知識がこのパラダイムを根本的に変えることを実証する。
6つの完全列挙されたカテゴリー的反応データセット(768~5,684実験)を用いて,LLM誘導最適化(LLM-GO)をベイズ最適化(BO)とランダムサンプリングと比較した。
最前線のLLMは、パラメータの複雑性が増加し、ハイパフォーマンスな条件が不足する(空間の5%)につれて、単一目的の5つのデータセット間でBO性能を一貫して一致または超過する。
BOは明示的な多目的トレードオフのためにのみ優位性を維持する。
これらの対照的な振る舞いを理解するために,最適化キャンペーン全体を通してサンプリングの多様性を定量化するトポロジーに依存しない情報理論フレームワークを導入する。
この分析により、LLMは全てのデータセットにおいてBOよりも体系的に高い探索エントロピーを維持しつつ、優れた性能を実現していることが明らかとなり、高エントロピー探索が一般的に失敗するソリューション-スカースパラメータ空間において最も顕著な利点は、事前学習されたドメイン知識が、構造化された探索戦略を置き換えるよりも、より効果的な化学パラメータ空間のナビゲーションを可能にすることを示唆している。
透過的なベンチマークとコミュニティの検証を可能にするため、我々はIron Mind(https://gomes.andrew.cmu.edu/iron-mind)をリリースした。
この結果から, LLM-GOは, 従来の手法が苦戦する分野である, 数学的最適化ではなく, ドメイン理解を必要とする複雑なカテゴリー空間を正確に満たしていることがわかった。
関連論文リスト
- OPT-BENCH: Evaluating LLM Agent on Large-Scale Search Spaces Optimization Problems [19.586884180343038]
OPT-BENCHは、大規模検索空間最適化問題において、LLM(Large Language Models)を評価するために設計されたベンチマークである。
OPT-Agentは、歴史的フィードバックを通じてソリューションの生成、検証、反復的に改善することで、複雑な問題に取り組む際の人間の推論をエミュレートする。
論文 参考訳(メタデータ) (2025-06-12T14:46:41Z) - Reasoning BO: Enhancing Bayesian Optimization with Long-Context Reasoning Power of LLMs [13.478684527247129]
本稿では、推論モデルを利用してBOのサンプリングプロセスを導出する新しいフレームワークであるReasoning BOを設計する。
推論BO(Reasoning BO)は、実証可能な科学的理論に基づく批判的な洞察とともに、リアルタイムサンプリングレコメンデーションを提供する。
このフレームワークは、リアルタイムの洞察と仮説の進化を通じて、サンプリング戦略を段階的に洗練する能力を示している。
論文 参考訳(メタデータ) (2025-05-19T08:20:40Z) - Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark [166.40879020706151]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z) - Large Language Models to Enhance Bayesian Optimization [57.474613739645605]
本稿では,大規模言語モデル(LLM)の能力をベイズ最適化に組み込む新しいアプローチであるLLAMBOを提案する。
高いレベルでは、自然言語のBO問題を枠組み化し、LLMが歴史的評価に照らした有望な解を反復的に提案し、評価することを可能にする。
以上の結果から,LLAMBOはゼロショットウォームスタートに有効であり,サロゲートモデリングや候補サンプリングの促進,特に観察が不十分な場合の探索の初期段階において有効であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T11:44:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。