論文の概要: Boosting LLM's Molecular Structure Elucidation with Knowledge Enhanced Tree Search Reasoning
- arxiv url: http://arxiv.org/abs/2506.23056v1
- Date: Sun, 29 Jun 2025 02:00:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.694882
- Title: Boosting LLM's Molecular Structure Elucidation with Knowledge Enhanced Tree Search Reasoning
- Title(参考訳): 知識強化木探索推論によるLLMの分子構造解明
- Authors: Xiang Zhuang, Bin Wu, Jiyu Cui, Kehua Feng, Xiaotong Li, Huabin Xing, Keyan Ding, Qiang Zhang, Huajun Chen,
- Abstract要約: 大規模言語モデル(LLM)は、複雑なタスクの分析と推論において、顕著な習熟度を示している。
我々はモンテカルロ木探索をプラグインとしてテスト時間スケーリングに活用した分子構造解明のための知識強化推論フレームワーク(K-MSE)を紹介した。
その結果, GPT-4o-mini と GPT-4o の両方で20%以上の改善が得られた。
- 参考スコア(独自算出の注目度): 35.02138874108029
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Molecular structure elucidation involves deducing a molecule's structure from various types of spectral data, which is crucial in chemical experimental analysis. While large language models (LLMs) have shown remarkable proficiency in analyzing and reasoning through complex tasks, they still encounter substantial challenges in molecular structure elucidation. We identify that these challenges largely stem from LLMs' limited grasp of specialized chemical knowledge. In this work, we introduce a Knowledge-enhanced reasoning framework for Molecular Structure Elucidation (K-MSE), leveraging Monte Carlo Tree Search for test-time scaling as a plugin. Specifically, we construct an external molecular substructure knowledge base to extend the LLMs' coverage of the chemical structure space. Furthermore, we design a specialized molecule-spectrum scorer to act as a reward model for the reasoning process, addressing the issue of inaccurate solution evaluation in LLMs. Experimental results show that our approach significantly boosts performance, particularly gaining more than 20% improvement on both GPT-4o-mini and GPT-4o. Our code is available at https://github.com/HICAI-ZJU/K-MSE.
- Abstract(参考訳): 分子構造解明は、様々な種類のスペクトルデータから分子の構造を導出する。
大規模言語モデル(LLM)は複雑なタスクを解析し、推論する能力を示す一方で、分子構造解明において大きな課題に直面している。
これらの課題は、LLMが専門的な化学知識を限定的に把握することに由来する。
本稿では,モンテカルロ木探索をプラグインとして利用した分子構造解明のための知識強化推論フレームワークについて紹介する。
具体的には、化学構造空間のLLMのカバレッジを拡張するために、外部分子サブ構造知識ベースを構築する。
さらに, LLMにおける不正確な解評価の問題に対処するため, 分子スペクトルスコアラを設計し, 推論プロセスの報酬モデルとして機能する。
その結果, GPT-4o-mini と GPT-4o の両方で20%以上の改善が得られた。
私たちのコードはhttps://github.com/HICAI-ZJU/K-MSE.comで公開されています。
関連論文リスト
- Improving Chemical Understanding of LLMs via SMILES Parsing [18.532188836688928]
CLEANMOLは、SMILES解析をクリーンで決定論的タスクのスイートに定式化する新しいフレームワークである。
適応的難易度スコアリングを伴う分子事前学習データセットを構築し,これらの課題に対してオープンソースのLCMを事前学習する。
以上の結果から,CLEANMOLは構造的理解を高めるだけでなく,Moll-Instructionsベンチマークのベースラインと競合する。
論文 参考訳(メタデータ) (2025-05-22T07:54:39Z) - Mol-LLaMA: Towards General Understanding of Molecules in Large Molecular Language Model [55.87790704067848]
Mol-LLaMAは、分子を中心とした一般的な知識を把握した大きな分子言語モデルである。
分子理解を改善するために,分子エンコーダの相補的な情報を統合するモジュールを提案する。
論文 参考訳(メタデータ) (2025-02-19T05:49:10Z) - MolCap-Arena: A Comprehensive Captioning Benchmark on Language-Enhanced Molecular Property Prediction [44.27112553103388]
分子特性予測を拡張した大規模言語モデル(LLM)の最初の包括的なベンチマークである分子キャプションアリーナを提示する。
汎用分子キャプタとドメイン特異的分子キャプタを含む20以上のLDMを,様々な予測タスクで評価した。
以上の結果から,LLM抽出した知識が最先端の分子表現を向上する可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-01T17:03:16Z) - Structural Reasoning Improves Molecular Understanding of LLM [18.532188836688928]
大規模言語モデル (LLM) は分子構造情報を用いた推論に依然として苦戦していることを示す。
本稿では,分子構造を推論のためにスケッチする手法を提案する。
対象分子が未知あるいは未知のシナリオのための2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-08T01:49:48Z) - ChemEval: A Comprehensive Multi-Level Chemical Evaluation for Large Language Models [62.37850540570268]
この領域の既存のベンチマークは、化学研究専門家の特定の要求を適切に満たさない。
ChemEvalは化学の4つの重要な進歩レベルを特定し、42の異なる化学タスクで12次元のLCMを評価する。
その結果, LLMは文献の理解と指導に優れる一方で, 高度な化学知識を必要とするタスクでは不足していることがわかった。
論文 参考訳(メタデータ) (2024-09-21T02:50:43Z) - Empirical Evidence for the Fragment level Understanding on Drug
Molecular Structure of LLMs [16.508471997999496]
言語モデルが1次元配列から化学空間構造をどう理解するかについて検討する。
その結果,分子断片の観点から,言語モデルで化学構造が理解できることが示唆された。
論文 参考訳(メタデータ) (2024-01-15T12:53:58Z) - Structured Chemistry Reasoning with Large Language Models [70.13959639460015]
大規模言語モデル(LLMs)は様々な分野において優れているが、特に化学において複雑な科学的推論に苦慮している。
所望のガイダンスを提供し,LSMの化学的推論能力を大幅に向上させる,シンプルで効果的なプロンプト戦略であるStructChemを紹介した。
量子化学、力学、物理化学、運動学の4分野にわたる試験では、StructChemはGPT-4の性能を大幅に向上させ、最大30%のピーク改善を実現している。
論文 参考訳(メタデータ) (2023-11-16T08:20:36Z) - Empowering Molecule Discovery for Molecule-Caption Translation with Large Language Models: A ChatGPT Perspective [53.300288393173204]
大規模言語モデル(LLM)は、様々なクロスモーダルタスクにおいて顕著なパフォーマンスを示している。
本研究では,分子カプセル翻訳のためのインコンテキストFew-Shot Molecule Learningパラダイムを提案する。
分子理解とテキストベースの分子生成を含む分子キャプション翻訳におけるMollReGPTの有効性を評価する。
論文 参考訳(メタデータ) (2023-06-11T08:16:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。