論文の概要: RxnNano:Training Compact LLMs for Chemical Reaction and Retrosynthesis Prediction via Hierarchical Curriculum Learning
- arxiv url: http://arxiv.org/abs/2603.02215v1
- Date: Tue, 10 Feb 2026 07:42:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.076148
- Title: RxnNano:Training Compact LLMs for Chemical Reaction and Retrosynthesis Prediction via Hierarchical Curriculum Learning
- Title(参考訳): RxnNano:階層型カリキュラム学習による化学反応・再合成予測のための小型LCMの開発
- Authors: Ran Li, Shimin Di, Haowei LI, Luanshi Bu, Jiachuan Wang, Wangze Ni, Lei Chen,
- Abstract要約: 私たちは、これらの知識をモデルに取り入れることが、中心的な課題であると主張している。
3つの重要な革新を通じて,化学的な理解を大規模に優先する統一的な枠組みを提案する。
- 参考スコア(独自算出の注目度): 20.904697361501174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chemical reaction prediction is pivotal for accelerating drug discovery and synthesis planning. Despite advances in data-driven models, current approaches are hindered by an overemphasis on parameter and dataset scaling. Some methods coupled with evaluation techniques that bypass fundamental challenges in reaction representation and fail to capture deep chemical intuition like reaction common sense and {topological atom mapping logic}. We argue that the core challenge lies in instilling these knowledge into the models. To this end, we propose a unified framework that prioritizes chemical understanding over scale through three key innovations: (1) a {Latent Chemical Consistency} objective that models reactions as movements on a continuous chemical manifold, ensuring reversible and physically plausible transformations; (2) a {Hierarchical Cognitive Curriculum} that trains the model through progressive stages, from syntax mastery to semantic reasoning, building robust chemical intuition; (3) {Atom-Map Permutation Invariance (AMPI)}, which force the model to learn invariant relational topology and balance multi-task learning. (4)and structured plan-based reasoning to improve the performance of the LLMs. Our compact {0.5B-parameter model}, \textbf{RxnNano} significantly outperforms fine-tuned LLMs ten times larger (>7B) and all the domain baselines, achieving a 23.5\% Top-1 accuracy improvement on rigorous benchmarks without test-time augmentation. https://github.com/rlisml/RxnNano.
- Abstract(参考訳): 化学反応予測は、薬物発見と合成計画の促進に重要である。
データ駆動モデルの発展にもかかわらず、現在のアプローチはパラメータとデータセットのスケーリングに対する過剰な影響によって妨げられている。
いくつかの手法は、反応表現における基本的な課題を回避し、反応共通感覚や「トポロジカル原子マッピング論理」のような深い化学直観を捉えない評価手法と結合している。
私たちは、これらの知識をモデルに取り入れることが、中心的な課題であると主張している。
本研究の目的は,(1)連続的な化学多様体上での反応を運動としてモデル化し,可逆的かつ物理的に妥当な変換を確実にする {Latent Chemical Consistency} の目的,(2) 構文習得から意味論的推論,堅牢な化学直観に至るまで,モデルを段階的に訓練する {Hierarchical Cognitive Curriculum} ,(3) 不変なトポロジを学習し,マルチタスク学習のバランスをとる {Atom-Map Permutation Invariance (AMPI)} である。
(4)LLMの性能向上のための構造的計画ベース推論。
我々のコンパクトな {0.5B-parameter model}, \textbf{RxnNano} は、微調整 LLM の10倍の精度(>7B)と全てのドメインベースラインを著しく上回り、テスト時間拡張のない厳密なベンチマークで23.5\%の精度向上を実現している。
https://github.com/rlisml/RxnNano
関連論文リスト
- Modular Multi-Task Learning for Chemical Reaction Prediction [1.443416244644791]
低ランク適応(LoRA)は、有機反応予測のための完全な微調整に代わるパラメータ効率の代替である。
LoRAは完全な微調整に匹敵する精度を達成し、破滅的な忘れを効果的に軽減し、マルチタスク性能を向上する。
論文 参考訳(メタデータ) (2026-02-11T01:17:06Z) - A Scientific Reasoning Model for Organic Synthesis Procedure Generation [12.609346156252393]
本稿では、精密な構造化実験手順を生成できる科学的推論言語モデルQFANGを提案する。
本稿では,大規模に化学知識を基盤としたチェーン・オブ・シントデータを生成する,化学誘導推論(CGR)フレームワークを提案する。
RLVR(Reinforcement Learning from Verifiable Rewards)を応用して、手続き精度をさらに向上する。
論文 参考訳(メタデータ) (2025-12-15T18:55:39Z) - oMeBench: Towards Robust Benchmarking of LLMs in Organic Mechanism Elucidation and Reasoning [44.36582860924775]
有機化学における有機機構推論のための,最初の大規模で専門家によるベンチマークであるoMeBenchを紹介する。
また,ステップレベルの論理と化学的類似性を組み合わせた動的評価フレームワークoMeSを提案する。
論文 参考訳(メタデータ) (2025-10-09T03:13:31Z) - Round-trip Reinforcement Learning: Self-Consistent Training for Better Chemical LLMs [51.29260537017623]
大規模言語モデル (LLM) は計算化学の汎用基盤モデルとして登場しつつある。
これらのモデルは、しばしば往復一貫性を欠いている。
本稿では,その一貫性を向上させるためにモデルをトレーニングする新しいフレームワークであるRound-Trip Reinforcement Learning(RTRL)を紹介する。
論文 参考訳(メタデータ) (2025-10-01T23:58:58Z) - Interpretable Deep Learning for Polar Mechanistic Reaction Prediction [43.95903801494905]
PMechRP(Polar Mechanistic Reaction Predictor)は,PMechDBデータセット上で機械学習モデルをトレーニングするシステムである。
私たちは、トランスフォーマーベース、グラフベース、および2段階のシアムアーキテクチャを含む、さまざまな機械学習モデルの比較をトレーニングします。
私たちの最高のパフォーマンスのアプローチはハイブリッドモデルで、5アンサンブルのChemformerモデルと2ステップのSiameseフレームワークを組み合わせたものです。
論文 参考訳(メタデータ) (2025-04-22T02:31:23Z) - FINEREASON: Evaluating and Improving LLMs' Deliberate Reasoning through Reflective Puzzle Solving [90.88021670297664]
FINEREASONは、大規模言語モデルの推論能力を評価するための論理パズルベンチマークである。
状態チェックと状態遷移という2つのタスクを導入し、モデルが現在の状況をどのように評価するかを総合的に評価し、次の動きを計画する。
状態チェックと遷移データに基づいてトレーニングされたモデルでは、GSM8Kで最大5.1%の精度で数学推論が向上することを示す。
論文 参考訳(メタデータ) (2025-02-27T16:23:25Z) - Chemist-aligned retrosynthesis by ensembling diverse inductive bias models [5.47805641978534]
RetroChimeraは、相補的誘導バイアスを持つ2つの新たに開発されたコンポーネント上に構築されたフロンティア再合成モデルである。
トレーニングデータの外部で堅牢性を実証し、主要なモデルを大きなマージンで上回ります。
また、大手製薬会社から内部データセットへのゼロショット転送を実証する。
論文 参考訳(メタデータ) (2024-12-06T18:55:19Z) - Learning Chemical Reaction Representation with Reactant-Product Alignment [50.28123475356234]
RAlignは、様々な有機反応関連タスクのための新しい化学反応表現学習モデルである。
反応物質と生成物との原子対応を統合することにより、反応中に起こる分子変換を識別する。
モデルが重要な機能群に集中できるように,反応中心認識型アテンション機構を導入する。
論文 参考訳(メタデータ) (2024-11-26T17:41:44Z) - Retrosynthesis prediction enhanced by in-silico reaction data
augmentation [66.5643280109899]
RetroWISEは,実データから推定されるベースモデルを用いて,シリコン内反応の生成と増大を行うフレームワークである。
3つのベンチマークデータセットで、RetroWISEは最先端モデルに対して最高の全体的なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-01-31T07:40:37Z) - Retrosynthesis Prediction with Conditional Graph Logic Network [118.70437805407728]
コンピュータ支援のレトロシンセシスは、化学と計算機科学の双方から新たな関心を集めている。
本稿では,グラフニューラルネットワーク上に構築された条件付きグラフィカルモデルであるConditional Graph Logic Networkを用いて,この課題に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-06T05:36:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。