論文の概要: ChemATP: A Training-Free Chemical Reasoning Framework for Large Language Models
- arxiv url: http://arxiv.org/abs/2512.19240v1
- Date: Mon, 22 Dec 2025 10:21:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.71103
- Title: ChemATP: A Training-Free Chemical Reasoning Framework for Large Language Models
- Title(参考訳): ChemATP: 大規模言語モデルのためのトレーニング不要なケミカル推論フレームワーク
- Authors: Mingxu Zhang, Dazhong Shen, Qi Zhang, Ying Sun,
- Abstract要約: ChemATPは推論エンジンから化学知識を分離するフレームワークである。
ChemATPはトレーニングなしのベースラインを著しく上回り、最先端のトレーニングベースモデルに匹敵する。
- 参考スコア(独自算出の注目度): 16.47599278238931
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) exhibit strong general reasoning but struggle in molecular science due to the lack of explicit chemical priors in standard string representations. Current solutions face a fundamental dilemma. Training-based methods inject priors into parameters, but this static coupling hinders rapid knowledge updates and often compromises the model's general reasoning capabilities. Conversely, existing training-free methods avoid these issues but rely on surface-level prompting, failing to provide the fine-grained atom-level priors essential for precise chemical reasoning. To address this issue, we introduce ChemATP, a framework that decouples chemical knowledge from the reasoning engine. By constructing the first atom-level textual knowledge base, ChemATP enables frozen LLMs to explicitly retrieve and reason over this information dynamically. This architecture ensures interpretability and adaptability while preserving the LLM's intrinsic general intelligence. Experiments show that ChemATP significantly outperforms training-free baselines and rivals state-of-the-art training-based models, demonstrating that explicit prior injection is a competitive alternative to implicit parameter updates.
- Abstract(参考訳): LLM(Large Language Models)は、標準文字列表現における明示的な化学的先行性の欠如により、強い一般的な推論を示すが、分子科学に苦慮している。
現在の解決策は基本的なジレンマに直面している。
トレーニングベースのメソッドはパラメータに事前を注入するが、静的結合は迅速な知識更新を妨げ、しばしばモデルの一般的な推論能力を損なう。
逆に、既存のトレーニングなしの手法はこれらの問題を回避しているが、表面レベルでのプロンプトに依存しており、精密な化学的推論に不可欠な微粒な原子レベルの先行情報を提供していない。
この問題に対処するために,化学知識を推論エンジンから切り離すフレームワークであるChemATPを紹介する。
最初の原子レベルのテキスト知識ベースを構築することで、ChemATPは凍結したLCMを動的に検索し、推論することを可能にする。
このアーキテクチャは、LLMの本質的な汎用性を維持しながら、解釈可能性と適応性を保証する。
実験の結果、ChemATPはトレーニングフリーのベースラインを著しく上回り、最先端のトレーニングベースモデルと競合し、明示的な事前注入が暗黙のパラメータ更新の競合的な代替手段であることを示した。
関連論文リスト
- Lost in Tokenization: Context as the Key to Unlocking Biomolecular Understanding in Scientific LLMs [78.18336140706471]
Sci-LLMは、生物発見を加速するための有望なフロンティアとして登場した。
現在の戦略では生の生体分子配列を処理する際にSci-LLMの推論能力を制限する。
より効果的な戦略は、Sci-LLMに高レベルな構造化コンテキストを提供することである。
論文 参考訳(メタデータ) (2025-10-27T09:03:21Z) - Atom-anchored LLMs speak Chemistry: A Retrosynthesis Demonstration [2.9496795797433073]
汎用大言語モデルを用いた分子推論のためのフレームワークを提案する。
本手法は, ユニークな原子識別子を用いて分子構造に対するチェーン・オブ・シント推論をアンカーする。
我々の研究は、理論的に基底付けられた合成データセットを生成する方法も提供する。
論文 参考訳(メタデータ) (2025-10-18T17:27:44Z) - MolReasoner: Toward Effective and Interpretable Reasoning for Molecular LLMs [30.030008221150407]
MolReasonerは、大規模言語モデルを記憶から化学推論に移行するために設計された2段階のフレームワークである。
まず,GPT-4o で生成した合成Chain-of-Thought(CoT) サンプルを用いてモデルの推論能力を初期化し,化学的精度を検証した Mol-SFT を提案する。
その後、Moll-RLは、化学構造と言語的記述との整合性を明確に設計した特殊報酬関数による強化学習を適用した。
論文 参考訳(メタデータ) (2025-08-04T05:10:11Z) - ChemActor: Enhancing Automated Extraction of Chemical Synthesis Actions with LLM-Generated Data [53.78763789036172]
ケミカルエグゼキュータとして完全微調整された大規模言語モデル(LLM)であるChemActorを紹介し,非構造化実験手順と構造化動作シーケンスを変換する。
このフレームワークは、分散分散に基づくデータ選択モジュールと汎用LLMを統合し、単一の分子入力からマシン実行可能なアクションを生成する。
反応記述(R2D)と記述記述処理(D2A)のタスクの実験により、ChemActorは最先端のパフォーマンスを達成し、ベースラインモデルよりも10%高い性能を示した。
論文 参考訳(メタデータ) (2025-06-30T05:11:19Z) - Training a Scientific Reasoning Model for Chemistry [3.52064464182155]
推論モデルは、追加のドメイン事前学習をすることなく、化学のための後処理が可能であることを実証する。
自然言語で推論し,化学構造に反応する24Bパラメータのether0を報告する。
論文 参考訳(メタデータ) (2025-06-04T17:57:18Z) - Beyond Chemical QA: Evaluating LLM's Chemical Reasoning with Modular Chemical Operations [43.623140005091535]
我々は、分子構造理解を算術に着想を得た演算でブリッジする推論フレームワークであるChemCoTBenchを紹介する。
ChemCoTBenchは、化学的問題解決を透明でステップバイステップの推論に形式化する。
分子特性最適化と化学反応予測という2つの高影響タスクのモデルを評価する。
論文 参考訳(メタデータ) (2025-05-27T15:15:44Z) - ChemAgent: Self-updating Library in Large Language Models Improves Chemical Reasoning [64.2106664137118]
ChemAgentは,大規模言語モデル(LLM)の性能向上を目的とした,新しいフレームワークである。
化学タスクをサブタスクに分解し、これらのサブタスクを将来のクエリに参照可能な構造化されたコレクションにコンパイルすることで開発される。
新しい問題を提示すると、ChemAgentは、私たちがメモリと呼ぶライブラリから関連する情報を検索し、精査する。
論文 参考訳(メタデータ) (2025-01-11T17:10:30Z) - ChemLLM: A Chemical Large Language Model [49.308528569982805]
大規模言語モデル(LLM)は化学応用において顕著な進歩を遂げた。
しかし、コミュニティには化学に特化したLLMが欠落している。
本稿では,化学に特化した最初のLLMを特徴とする包括的フレームワークであるChemLLMを紹介する。
論文 参考訳(メタデータ) (2024-02-10T01:11:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。