論文の概要: LatentChem: From Textual CoT to Latent Thinking in Chemical Reasoning
- arxiv url: http://arxiv.org/abs/2602.07075v1
- Date: Fri, 06 Feb 2026 01:28:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.425279
- Title: LatentChem: From Textual CoT to Latent Thinking in Chemical Reasoning
- Title(参考訳): LatentChem: テキストCoTから化学推論における潜在思考へ
- Authors: Xinwu Ye, Yicheng Mao, Jia Zhang, Yimeng Liu, Li Hao, Fang Wu, Zhiwei Li, Yuxuan Liao, Zehong Wang, Zhiyuan Liu, Zhenfei Yin, Li Yuan, Philip Torr, Huan Sun, Xiangxiang Zeng, Mengdi Wang, Le Cong, Shenghua Gao, Xiangru Tang,
- Abstract要約: テキスト生成から化学的導出を分離する潜在推論インタフェースであるLatntChemを紹介する。
我々は,LatentChemがChemCoTBench上のCoTベースラインの強いベースラインに対して59.88%の非ティー勝利率を達成したことを示す。
その結果, 化学推論は連続潜伏力学としてより自然かつ効果的に実現されているという実証的証拠が得られた。
- 参考スコア(独自算出の注目度): 107.60117957760794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chemical large language models (LLMs) predominantly rely on explicit Chain-of-Thought (CoT) in natural language to perform complex reasoning. However, chemical reasoning is inherently continuous and structural, and forcing it into discrete linguistic tokens introduces a fundamental representation mismatch that constrains both efficiency and performance. We introduce LatentChem, a latent reasoning interface that decouples chemical computation from textual generation, enabling models to perform multi-step reasoning directly in continuous latent space while emitting language only for final outputs. Remarkably, we observe a consistent emergent behavior: when optimized solely for task success, models spontaneously internalize reasoning, progressively abandoning verbose textual derivations in favor of implicit latent computation. This shift is not merely stylistic but computationally advantageous. Across diverse chemical reasoning benchmarks, LatentChem achieves a 59.88\% non-tie win rate over strong CoT-based baselines on ChemCoTBench, while delivering a 10.84$\times$ average inference speedup. Our results provide empirical evidence that chemical reasoning is more naturally and effectively realized as continuous latent dynamics rather than discretized linguistic trajectories.
- Abstract(参考訳): 化学大言語モデル(LLM)は、複雑な推論を行うために、自然言語の明示的な連鎖(CoT)に依存している。
しかし、化学的推論は本質的に連続的で構造的であり、それを個別の言語トークンに強制すると、効率と性能の両方を制約する基本的な表現ミスマッチがもたらされる。
テキスト生成から化学計算を分離する潜在推論インタフェースであるLatentChemを導入し、最終出力にのみ言語を出力しながら連続潜時空間で直接多段階推論を行えるようにする。
タスク成功のためだけに最適化された場合、モデルが自然に推論を内部化し、暗黙の潜在計算に有利な文の導出を徐々に放棄する。
このシフトは単にスタイリスティックなだけでなく、計算的に有利である。
様々な化学推論のベンチマークで、LatentChemはChemCoTBenchの強力なCoTベースのベースラインに対して59.88 %の非ティーの勝利率を達成し、平均推論速度は10.84$\times$10.84$\timesである。
その結果, 化学推論は, 離散化された言語軌道ではなく, 連続的な潜在力学として, より自然かつ効果的に実現されているという実証的証拠が得られた。
関連論文リスト
- Reflection Pretraining Enables Token-Level Self-Correction in Biological Sequence Models [82.79223371188756]
CoT(Chain-of-Thought)は、大規模言語モデルを用いた自然言語処理において、高度なタスク解決機能を備えている。
CoTをタンパク質やRNA言語モデルのような非自然言語ドメインに適用することは、まだ不可能である。
生物シークエンスモデルではじめて事前学習を導入し、中間的推論を行えるようにした。
論文 参考訳(メタデータ) (2025-12-24T05:25:17Z) - Think Consistently, Reason Efficiently: Energy-Based Calibration for Implicit Chain-of-Thought [33.267497114389734]
大規模言語モデル(LLM)は、emphChain-of-Thought(CoT)のプロンプトを通じて、強力な推論能力を示している。
CoT法は離散トークンレベルの推論プロセスに依存しており、誤りの伝播が難しく、語彙によって制限される。
EBM-CoT(Energy-based Chain-of-Thought)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-10T14:10:58Z) - MolReasoner: Toward Effective and Interpretable Reasoning for Molecular LLMs [30.030008221150407]
MolReasonerは、大規模言語モデルを記憶から化学推論に移行するために設計された2段階のフレームワークである。
まず,GPT-4o で生成した合成Chain-of-Thought(CoT) サンプルを用いてモデルの推論能力を初期化し,化学的精度を検証した Mol-SFT を提案する。
その後、Moll-RLは、化学構造と言語的記述との整合性を明確に設計した特殊報酬関数による強化学習を適用した。
論文 参考訳(メタデータ) (2025-08-04T05:10:11Z) - Theorem-of-Thought: A Multi-Agent Framework for Abductive, Deductive, and Inductive Reasoning in Language Models [2.172419551358714]
大規模言語モデル(LLM)は、自然言語推論タスク全体で強いパフォーマンスを示しているが、その推論プロセスは脆弱で解釈が難しいままである。
Theorem-of-Thought (ToTh)は、3つの並列エージェント間の協調として推論をモデル化する新しいフレームワークである。
シンボリック(WebOfLies)と数値(MultiArithm)の推論ベンチマークの実験は、ToThがCoT、セルフ一貫性、CoT-デコーディングを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-06-08T12:28:38Z) - Learning to Reason via Mixture-of-Thought for Logical Reasoning [56.24256916896427]
Mixture-of-Thought (MoT) は、LLMが自然言語、コード、真理表の3つの相補的なモダリティにまたがる推論を可能にするフレームワークである。
MoT は,(1) 自己進化型 MoT トレーニング,(2) 3 つのモーダルの相乗効果を完全に活用してより良い予測を生成する MoT 推論,という2段階の設計を採用する。
論文 参考訳(メタデータ) (2025-05-21T17:59:54Z) - Soft Thinking: Unlocking the Reasoning Potential of LLMs in Continuous Concept Space [62.54887038032942]
ソフトシンキング(Soft Thinking)は、ソフトで抽象的な概念トークンを生成することによって、人間のような「ソフト」推論をエミュレートする訓練不要な手法である。
これらの概念トークンは、連続的な概念空間を形成するトークン埋め込みの確率重み付き混合によって生成される。
本質的に、生成された概念トークンは関連する離散トークンから複数の意味をカプセル化し、暗黙的に様々な推論経路を探索する。
論文 参考訳(メタデータ) (2025-05-21T17:29:15Z) - Enhancing Mathematical Reasoning in Large Language Models with Self-Consistency-Based Hallucination Detection [0.0]
数学的推論の信頼性を高めるために,構造化自己整合性フレームワークを導入する。
本手法は,中間ステップと最終出力の自己整合性を強制し,論理的不整合や幻覚を低減させる。
実験の結果,SCは証明精度,記号的推論精度,数値安定性を著しく向上することがわかった。
論文 参考訳(メタデータ) (2025-04-13T05:47:52Z) - Sketch-of-Thought: Efficient LLM Reasoning with Adaptive Cognitive-Inspired Sketching [64.74765550805024]
Chain-of-Thoughtはステップバイステップの問題解決を促すが、中間出力の過剰な冗長性を犠牲にすることが多い。
我々は,認知にインスパイアされた推論パラダイムを言語制約と統合する促進フレームワークであるSketch-of-Thought(SoT)を提案する。
SoTはトークンを最大84%削減し、18の推論データセットで最小限の精度ロスを達成している。
論文 参考訳(メタデータ) (2025-03-07T06:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。