論文の概要: How well can off-the-shelf LLMs elucidate molecular structures from mass spectra using chain-of-thought reasoning?
- arxiv url: http://arxiv.org/abs/2601.06289v1
- Date: Fri, 09 Jan 2026 20:08:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.734128
- Title: How well can off-the-shelf LLMs elucidate molecular structures from mass spectra using chain-of-thought reasoning?
- Title(参考訳): 質量スペクトルからの分子構造をチェーン・オブ・ソート・推論でどの程度解明できるのか?
- Authors: Yufeng Wang, Lu Wei, Lin Liu, Hao Xu, Haibin Ling,
- Abstract要約: 大規模言語モデル (LLM) は推論集約的な科学的タスクを約束するが、化学的解釈の能力はまだ不明である。
我々は、分子構造を予測するために、LLMが質量スペクトルデータに対してどのように理由を持つかを評価する、Chain-of-Thought(CoT)プロンプトフレームワークとベンチマークを導入する。
SMILESの妥当性, 式整合性, 構造的類似性の指標による評価の結果, LLMは合成学的に有効で, 部分的に可視な構造を生成できるが, 分子予測の正確性やリンク推論を達成できないことがわかった。
- 参考スコア(独自算出の注目度): 51.286853421822705
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Mass spectrometry (MS) is a powerful analytical technique for identifying small molecules, yet determining complete molecular structures directly from tandem mass spectra (MS/MS) remains a long-standing challenge due to complex fragmentation patterns and the vast diversity of chemical space. Recent progress in large language models (LLMs) has shown promise for reasoning-intensive scientific tasks, but their capability for chemical interpretation is still unclear. In this work, we introduce a Chain-of-Thought (CoT) prompting framework and benchmark that evaluate how LLMs reason about mass spectral data to predict molecular structures. We formalize expert chemists' reasoning steps-such as double bond equivalent (DBE) analysis, neutral loss identification, and fragment assembly-into structured prompts and assess multiple state-of-the-art LLMs (Claude-3.5-Sonnet, GPT-4o-mini, and Llama-3 series) in a zero-shot setting using the MassSpecGym dataset. Our evaluation across metrics of SMILES validity, formula consistency, and structural similarity reveals that while LLMs can produce syntactically valid and partially plausible structures, they fail to achieve chemical accuracy or link reasoning to correct molecular predictions. These findings highlight both the interpretive potential and the current limitations of LLM-based reasoning for molecular elucidation, providing a foundation for future work that combines domain knowledge and reinforcement learning to achieve chemically grounded AI reasoning.
- Abstract(参考訳): 質量分析法(MS)は、小さな分子を同定する強力な分析手法であるが、タンデム質量分析法(MS/MS)から直接完全な分子構造を決定することは、複雑な断片化パターンと化学空間の広範な多様性のために長年の課題である。
大規模言語モデル(LLM)の最近の進歩は推論集約的な科学的課題の可能性を示唆しているが、その化学解釈能力はまだ不明である。
本研究では,分子構造を予測するために,LLMが質量スペクトルデータに対してどのような理由を持つかを評価する,Chain-of-Thought(CoT)プロンプトフレームワークとベンチマークを導入する。
我々は,2重結合等価(DBE)分析,中性損失同定,断片組立型プロンプトなどの専門家化学者の推論ステップを定式化し,MassSpecGymデータセットを用いたゼロショット設定で複数の最先端LCM(Claude-3.5-Sonnet, GPT-4o-mini, Llama-3 series)を評価した。
SMILESの妥当性, 式整合性, 構造的類似性の指標による評価の結果, LLMは合成学的に有効で, 部分的に可視な構造を生成できるが, 分子予測の正確性やリンク推論を達成できないことがわかった。
これらの知見は、分子解明のためのLLMに基づく推論の解釈可能性と現在の限界の両方を強調しており、化学基盤のAI推論を達成するためにドメイン知識と強化学習を組み合わせた将来の研究の基盤となる。
関連論文リスト
- Knowledge-Augmented Long-CoT Generation for Complex Biomolecular Reasoning [51.673503054645415]
生体分子機構は、分子間相互作用、シグナルカスケード、代謝経路の多段階的推論を必要とする。
既存のアプローチはしばしばこれらの問題を悪化させる: 推論ステップは生物学的事実から逸脱したり、長い機械的依存関係を捉えるのに失敗する。
本稿では,LLMと知識グラフに基づくマルチホップ推論チェーンを統合したLong-CoT推論フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T09:26:32Z) - Mamba-driven multi-perspective structural understanding for molecular ground-state conformation prediction [69.32436472760712]
本稿では,マンバ駆動型多面的構造理解(MPSU-Mamba)による分子基底状態の局在化手法を提案する。
複雑で多様な分子に対しては、対応する分子構造の包括的認識を構築するために、3種類の専用の走査戦略が検討されている。
QM9 と Molecule3D データセットの実験結果から,MPSU-Mamba が既存の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-11-10T11:18:32Z) - MolSpectLLM: A Molecular Foundation Model Bridging Spectroscopy, Molecule Elucidation, and 3D Structure Generation [24.14024904556376]
MolSpectLLMはQwen2.5-7Bで事前訓練された分子基盤モデルであり、分子3D構造と実験的分光を統一する。
MolSpectLLMは、NMR、IR、MSベンチマークで平均0.53の精度でスペクトル関連タスクの最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-09-26T04:37:44Z) - $\text{M}^{2}$LLM: Multi-view Molecular Representation Learning with Large Language Models [59.125833618091846]
分子構造ビュー,分子タスクビュー,分子規則ビューの3つの視点を統合した多視点フレームワークを提案する。
実験によると、$textM2$LLMは、分類タスクと回帰タスクをまたいだ複数のベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-08-12T05:46:47Z) - MolReasoner: Toward Effective and Interpretable Reasoning for Molecular LLMs [30.030008221150407]
MolReasonerは、大規模言語モデルを記憶から化学推論に移行するために設計された2段階のフレームワークである。
まず,GPT-4o で生成した合成Chain-of-Thought(CoT) サンプルを用いてモデルの推論能力を初期化し,化学的精度を検証した Mol-SFT を提案する。
その後、Moll-RLは、化学構造と言語的記述との整合性を明確に設計した特殊報酬関数による強化学習を適用した。
論文 参考訳(メタデータ) (2025-08-04T05:10:11Z) - Boosting LLM's Molecular Structure Elucidation with Knowledge Enhanced Tree Search Reasoning [35.02138874108029]
大規模言語モデル(LLM)は、複雑なタスクの分析と推論において、顕著な習熟度を示している。
我々はモンテカルロ木探索をプラグインとしてテスト時間スケーリングに活用した分子構造解明のための知識強化推論フレームワーク(K-MSE)を紹介した。
その結果, GPT-4o-mini と GPT-4o の両方で20%以上の改善が得られた。
論文 参考訳(メタデータ) (2025-06-29T02:00:38Z) - Improving Chemical Understanding of LLMs via SMILES Parsing [18.532188836688928]
CLEANMOLは、SMILES解析をクリーンで決定論的タスクのスイートに定式化する新しいフレームワークである。
適応的難易度スコアリングを伴う分子事前学習データセットを構築し,これらの課題に対してオープンソースのLCMを事前学習する。
以上の結果から,CLEANMOLは構造的理解を高めるだけでなく,Moll-Instructionsベンチマークのベースラインと競合する。
論文 参考訳(メタデータ) (2025-05-22T07:54:39Z) - DiffMS: Diffusion Generation of Molecules Conditioned on Mass Spectra [60.39311767532607]
本稿では,DiffMSを提案する。DiffMS,式制限付きエンコーダ・デコーダ生成ネットワークは,このタスクにおける最先端性能を実現する。
遅延埋め込みと分子構造をブリッジするロバストデコーダを開発するために,フィンガー構造対による拡散デコーダの事前訓練を行う。
確立されたベンチマーク実験により、DiffMSはデノボ分子生成における既存のモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-13T18:29:48Z) - Structural Reasoning Improves Molecular Understanding of LLM [18.532188836688928]
大規模言語モデル (LLM) は分子構造情報を用いた推論に依然として苦戦していることを示す。
本稿では,分子構造を推論のためにスケッチする手法を提案する。
対象分子が未知あるいは未知のシナリオのための2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-08T01:49:48Z) - Empowering Molecule Discovery for Molecule-Caption Translation with Large Language Models: A ChatGPT Perspective [53.300288393173204]
大規模言語モデル(LLM)は、様々なクロスモーダルタスクにおいて顕著なパフォーマンスを示している。
本研究では,分子カプセル翻訳のためのインコンテキストFew-Shot Molecule Learningパラダイムを提案する。
分子理解とテキストベースの分子生成を含む分子キャプション翻訳におけるMollReGPTの有効性を評価する。
論文 参考訳(メタデータ) (2023-06-11T08:16:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。