論文の概要: Retro-Expert: Collaborative Reasoning for Interpretable Retrosynthesis
- arxiv url: http://arxiv.org/abs/2508.10967v1
- Date: Thu, 14 Aug 2025 15:41:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.61977
- Title: Retro-Expert: Collaborative Reasoning for Interpretable Retrosynthesis
- Title(参考訳): Retro-Expert: 解釈可能な再合成のための協調的推論
- Authors: Xinyi Li, Sai Wang, Yutian Lin, Yu Wu, Yi Yang,
- Abstract要約: Retro-Expertは、協調推論を行う解釈可能な再合成フレームワークである。
それは3つの構成要素を通して、化学論理に基づく自然言語の説明を出力する。
- 参考スコア(独自算出の注目度): 27.158870814241563
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Retrosynthesis prediction aims to infer the reactant molecule based on a given product molecule, which is a fundamental task in chemical synthesis. However, existing models rely on static pattern-matching paradigm, which limits their ability to perform effective logic decision-making, leading to black-box decision-making. Building on this, we propose Retro-Expert, an interpretable retrosynthesis framework that performs collaborative reasoning by combining the complementary reasoning strengths of Large Language Models and specialized models via reinforcement learning. It outputs natural language explanations grounded in chemical logic through three components: (1) specialized models perform shallow reasoning to construct high-quality chemical decision space, (2) LLM-driven critical reasoning to generate predictions and corresponding interpretable reasoning path, and (3) reinforcement learning optimizing interpretable decision policy. Experiments show that Retro-Expert not only surpasses both LLM-based and specialized models across different metrics but also provides expert-aligned explanations that bridge the gap between AI predictions and actionable chemical insights.
- Abstract(参考訳): 再合成予測は、化学合成の基本的なタスクである与えられた生成分子に基づいて反応分子を推測することを目的としている。
しかし、既存のモデルは静的パターンマッチングのパラダイムに依存しており、効率的な論理決定を行う能力を制限するため、ブラックボックスの意思決定につながる。
これに基づいて,大規模言語モデルと強化学習による特殊モデルの相補的推論長を組み合わせた協調推論を行う,解釈可能なレトロシンセシスフレームワークRetro-Expertを提案する。
本手法は,(1)高品質な化学決定空間を構築するための浅い推論を行う専門モデル,(2)予測とそれに対応する解釈可能な推論経路を生成するLLM駆動臨界推論,(3)解釈可能な決定ポリシーを最適化する強化学習,の3つの要素を通じて,化学論理に根ざした自然言語説明を出力する。
実験によると、Retro-ExpertはLLMベースのモデルと、異なるメトリクスにわたる特殊なモデルの両方を上回るだけでなく、AI予測と実行可能な化学的洞察のギャップを埋める専門家による説明を提供する。
関連論文リスト
- Mol-R1: Towards Explicit Long-CoT Reasoning in Molecule Discovery [21.895481477176475]
Mol-R1は、テキストベースの分子生成におけるR1のようなExplicit Long-CoT推論モデルの説明可能性と推論性能を改善するために設計された新しいフレームワークである。
分子反復適応(英: Molecular Iterative Adaptation)とは、分子発見のためのR1ライクな推論モデルの推論性能を高めるために、SFT(Supervised Fine-tuning)とRPO(Reinforced Policy Optimization)を反復的に組み合わせたトレーニング戦略である。
論文 参考訳(メタデータ) (2025-08-11T18:50:05Z) - MolReasoner: Toward Effective and Interpretable Reasoning for Molecular LLMs [30.030008221150407]
MolReasonerは、大規模言語モデルを記憶から化学推論に移行するために設計された2段階のフレームワークである。
まず,GPT-4o で生成した合成Chain-of-Thought(CoT) サンプルを用いてモデルの推論能力を初期化し,化学的精度を検証した Mol-SFT を提案する。
その後、Moll-RLは、化学構造と言語的記述との整合性を明確に設計した特殊報酬関数による強化学習を適用した。
論文 参考訳(メタデータ) (2025-08-04T05:10:11Z) - AdapThink: Adaptive Thinking Preferences for Reasoning Language Model [32.47427081297578]
強化学習(RL)に基づくポストトレーニングは、言語モデルの複雑な推論能力を大幅に向上させた。
しかし、この緩やかな思考のパラダイムは、効率を推理する上で重要な課題である。
より効率的な思考を促すために,適応的なポストトレーニングフレームワークAdapThinkを提案する。
論文 参考訳(メタデータ) (2025-06-23T02:06:04Z) - Controlled Agentic Planning & Reasoning for Mechanism Synthesis [8.273778202041365]
本研究は,メカニズム合成のためのLLMに基づく推論手法を提案する。
言語レベルと記号レベルの両方で推論し、幾何学的および動的結果を生成することができる。
論文 参考訳(メタデータ) (2025-05-23T08:16:32Z) - Learning to Reason via Mixture-of-Thought for Logical Reasoning [56.24256916896427]
Mixture-of-Thought (MoT) は、LLMが自然言語、コード、真理表の3つの相補的なモダリティにまたがる推論を可能にするフレームワークである。
MoT は,(1) 自己進化型 MoT トレーニング,(2) 3 つのモーダルの相乗効果を完全に活用してより良い予測を生成する MoT 推論,という2段階の設計を採用する。
論文 参考訳(メタデータ) (2025-05-21T17:59:54Z) - The Buffer Mechanism for Multi-Step Information Reasoning in Language Models [52.77133661679439]
大きな言語モデルの内部的推論メカニズムを調べることは、よりよいモデルアーキテクチャとトレーニング戦略を設計するのに役立ちます。
本研究では,トランスフォーマーモデルが垂直思考戦略を採用するメカニズムを解明するために,シンボリックデータセットを構築した。
我々は,GPT-2モデルに必要なトレーニング時間を75%削減し,モデルの推論能力を高めるために,ランダムな行列ベースアルゴリズムを提案した。
論文 参考訳(メタデータ) (2024-05-24T07:41:26Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Disentangling Reasoning Capabilities from Language Models with
Compositional Reasoning Transformers [72.04044221898059]
ReasonFormerは、人間のモジュール的および構成的推論プロセスを反映するための統一的な推論フレームワークである。
表現モジュール(自動思考)と推論モジュール(制御思考)は、異なるレベルの認知を捉えるために切り離される。
統一された推論フレームワークは、単一のモデルで複数のタスクを解決し、エンドツーエンドでトレーニングされ、推論される。
論文 参考訳(メタデータ) (2022-10-20T13:39:55Z) - Energy-based View of Retrosynthesis [70.66156081030766]
エネルギーモデルとしてシーケンスおよびグラフベースの手法を統一するフレームワークを提案する。
本稿では,ベイズ前方および後方予測に対して一貫した訓練を行うフレームワーク内での新しい二重変種を提案する。
このモデルは、反応型が不明なテンプレートフリーアプローチに対して、最先端の性能を9.6%向上させる。
論文 参考訳(メタデータ) (2020-07-14T18:51:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。