論文の概要: DrugR: Optimizing Molecular Drugs through LLM-based Explicit Reasoning
- arxiv url: http://arxiv.org/abs/2602.08213v1
- Date: Mon, 09 Feb 2026 02:26:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.032289
- Title: DrugR: Optimizing Molecular Drugs through LLM-based Explicit Reasoning
- Title(参考訳): 薬物療法 : LLMを用いた明示的推論による分子ドラッグの最適化
- Authors: Haoran Liu, Zheni Zeng, Yukun Yan, Yuxuan Chen, Yunduo Xiao,
- Abstract要約: DrugRは、明示的で段階的な薬理学的推論を最適化プロセスに導入する、大きな言語モデルである。
提案手法は, ドメイン固有の事前学習, 逆データ工学による微調整, 自己バランス型多粒性強化学習を統合した。
実験結果から、Dr.Rは構造的類似性や標的結合親和性を損なうことなく、複数の特性を包括的に拡張できることが示された。
- 参考スコア(独自算出の注目度): 24.70952870676648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Molecule generation and optimization is a fundamental task in chemical domain. The rapid development of intelligent tools, especially large language models (LLMs) with powerful knowledge reserves and interactive capabilities, has provided new paradigms for it. Nevertheless, the intrinsic challenge for LLMs lies in the complex implicit relationship between molecular structure and pharmacological properties and the lack of corresponding labeled data. To bridge this gap, we propose DrugR, an LLM-based method that introduces explicit, step-by-step pharmacological reasoning into the optimization process. Our approach integrates domain-specific continual pretraining, supervised fine-tuning via reverse data engineering, and self-balanced multi-granular reinforcement learning. This framework enables DrugR to effectively improve key ADMET properties while preserving the original molecule's core efficacy. Experimental results demonstrate that DrugR achieves comprehensive enhancement across multiple properties without compromising structural similarity or target binding affinity. Importantly, its explicit reasoning process provides clear, interpretable rationales for each optimization step, yielding actionable design insights and advancing toward automated, knowledge-driven scientific discovery. Our code and model checkpoints are open-sourced to foster future research.
- Abstract(参考訳): 分子生成と最適化は化学領域における基本的な課題である。
インテリジェントツール、特に強力な知識保護と対話機能を備えた大規模言語モデル(LLM)の急速な開発は、その新しいパラダイムを提供してきた。
それでも、LSMの本質的な課題は、分子構造と薬理学的性質と対応するラベル付きデータの欠如の間の複雑な暗黙の関係にある。
このギャップを埋めるために、最適化プロセスに明示的でステップバイステップの薬理学的推論を導入するLSMベースの手法であるDarmRを提案する。
提案手法は, ドメイン固有の事前学習, 逆データ工学による微調整, 自己バランス型多粒性強化学習を統合した。
この枠組みにより、Dr.R.は、元の分子のコア有効性を保ちながら、重要なADMET特性を効果的に改善することができる。
実験結果から、Dr.Rは構造的類似性や標的結合親和性を損なうことなく、複数の特性を包括的に拡張できることが示された。
重要なことは、その明示的な推論プロセスは、各最適化ステップに対して明確で解釈可能な理性を提供し、実行可能な設計の洞察を与え、自動化された知識駆動の科学的発見へと進むことである。
私たちのコードとモデルチェックポイントは、将来の研究を促進するためにオープンソース化されています。
関連論文リスト
- Agentic reinforcement learning empowers next-generation chemical language models for molecular design and synthesis [51.83339196548892]
ChemCraftは、知識ストレージから化学推論を分離する新しいフレームワークである。
ChemCraftは最小の推論コストで優れたパフォーマンスを実現する。
この研究は、AI支援化学のコスト効率とプライバシ保護のパラダイムを確立する。
論文 参考訳(メタデータ) (2026-01-25T04:23:34Z) - Empowering LLMs for Structure-Based Drug Design via Exploration-Augmented Latent Inference [5.052013621974765]
大言語モデル(LLM)は、表現力と推論能力を持っているが、構造に基づく薬物設計(SBDD)への応用は、タンパク質構造や予測不可能な分子生成の理解が不十分なため制限されている。
本研究では,LLM生成過程を符号化,遅延空間探索,復号化ワークフローとして再解釈するフレームワークであるELILLM(Exploration-Augmented Latent Inference for LLMs)を提案する。
ELILLMは、デコードモジュールを使用して、よく知られた領域を処理し、化学的に有効で合成学的に合理的な分子を生成することで、モデル現在の知識を超えた設計問題の部分を明示的に探求する。
論文 参考訳(メタデータ) (2026-01-20T08:10:48Z) - Enhancing Molecular Property Prediction with Knowledge from Large Language Models [15.273538257961905]
本研究では,大規模言語モデルから抽出した知識を,事前学習された分子モデルから抽出した構造的特徴と統合し,分子特性の予測を強化する新しいフレームワークを提案する。
分子ベクター化のためのドメイン関連知識と実行可能コードの両方を生成し,その後構造表現に融合した知識ベースの特徴を生成する。
論文 参考訳(メタデータ) (2025-09-25T01:48:54Z) - Agentic Reinforced Policy Optimization [66.96989268893932]
検証可能な報酬付き大規模強化学習(RLVR)は,大規模言語モデル(LLM)を単一ターン推論タスクに活用する効果を実証している。
現在のRLアルゴリズムは、モデル固有のロングホライゾン推論能力と、マルチターンツールインタラクションにおけるその習熟性のバランスが不十分である。
エージェント強化ポリシー最適化(ARPO: Agentic Reinforced Policy Optimization)は,マルチターンLDMエージェントを学習するためのエージェントRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-07-26T07:53:11Z) - VALID-Mol: a Systematic Framework for Validated LLM-Assisted Molecular Design [0.0]
VALID-Molは、化学検証とLCM駆動分子設計を統合する包括的なフレームワークである。
本手法は, 組織的迅速最適化, 自動化学検証, ドメイン適応微調整を合成し, 合成可能な分子の生成を確実にする。
論文 参考訳(メタデータ) (2025-06-29T17:17:04Z) - DrugImproverGPT: A Large Language Model for Drug Optimization with Fine-Tuning via Structured Policy Optimization [53.27954325490941]
大規模言語モデル(LLM)の微調整は、特定の目的に向けて結果を生成するために不可欠である。
本研究は,薬物最適化LSMに基づく生成モデルを微調整するための新しい強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-11T04:00:21Z) - Many-Shot In-Context Learning for Molecular Inverse Design [56.65345962071059]
大規模言語モデル(LLM)は、数ショットのインコンテキスト学習(ICL)において、優れたパフォーマンスを示している。
マルチショットICLで利用可能な実験データの不足を克服する,新しい半教師付き学習手法を開発した。
示すように、この新しい手法は、既存の分子設計のためのICL法を大幅に改善し、科学者にとってアクセスしやすく、使いやすくする。
論文 参考訳(メタデータ) (2024-07-26T21:10:50Z) - DrugAssist: A Large Language Model for Molecule Optimization [29.95488215594247]
DrugAssistは、人間と機械の対話を通じて最適化を行う対話型分子最適化モデルである。
DrugAssistは、単一および複数プロパティの最適化において、主要な結果を得た。
分子最適化タスクの微調整言語モデルのための,MomoOpt-Instructionsと呼ばれる大規模命令ベースデータセットを公開している。
論文 参考訳(メタデータ) (2023-12-28T10:46:56Z) - Optimizing Molecules using Efficient Queries from Property Evaluations [66.66290256377376]
汎用的なクエリベースの分子最適化フレームワークであるQMOを提案する。
QMOは効率的なクエリに基づいて入力分子の所望の特性を改善する。
QMOは, 有機分子を最適化するベンチマークタスクにおいて, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-03T18:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。