論文の概要: DrugImproverGPT: A Large Language Model for Drug Optimization with Fine-Tuning via Structured Policy Optimization
- arxiv url: http://arxiv.org/abs/2502.07237v1
- Date: Tue, 11 Feb 2025 04:00:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:10:52.080037
- Title: DrugImproverGPT: A Large Language Model for Drug Optimization with Fine-Tuning via Structured Policy Optimization
- Title(参考訳): DrugImproverGPT:構造化ポリシー最適化による医薬品最適化のための大規模言語モデル
- Authors: Xuefeng Liu, Songhao Jiang, Siyu Chen, Zhuoran Yang, Yuxin Chen, Ian Foster, Rick Stevens,
- Abstract要約: 大規模言語モデル(LLM)の微調整は、特定の目的に向けて結果を生成するために不可欠である。
本研究は,薬物最適化LSMに基づく生成モデルを微調整するための新しい強化学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 53.27954325490941
- License:
- Abstract: Finetuning a Large Language Model (LLM) is crucial for generating results towards specific objectives. This research delves into the realm of drug optimization and introduce a novel reinforcement learning algorithm to finetune a drug optimization LLM-based generative model, enhancing the original drug across target objectives, while retains the beneficial chemical properties of the original drug. This work is comprised of two primary components: (1) DrugImprover: A framework tailored for improving robustness and efficiency in drug optimization. It includes a LLM designed for drug optimization and a novel Structured Policy Optimization (SPO) algorithm, which is theoretically grounded. This algorithm offers a unique perspective for fine-tuning the LLM-based generative model by aligning the improvement of the generated molecule with the input molecule under desired objectives. (2) A dataset of 1 million compounds, each with OEDOCK docking scores on 5 human proteins associated with cancer cells and 24 binding sites from SARS-CoV-2 virus. We conduct a comprehensive evaluation of SPO and demonstrate its effectiveness in improving the original drug across target properties. Our code and dataset will be publicly available at: https://github.com/xuefeng-cs/DrugImproverGPT.
- Abstract(参考訳): 大規模言語モデル(LLM)の微調整は、特定の目的に向けて結果を生成するために不可欠である。
本研究は、薬物最適化の領域を掘り下げ、薬物最適化LSMに基づく生成モデルを微調整する新しい強化学習アルゴリズムを導入し、元の薬物を目的とする目的を越えて増強するとともに、元の薬物の有用な化学的性質を維持している。
本研究は2つの主要な構成要素から構成される。(1)薬品即効性:薬物最適化における堅牢性と効率性を改善するためのフレームワーク。
薬物最適化のために設計されたLLMと、理論上は根拠となっている新しい構造化ポリシー最適化(SPO)アルゴリズムを含んでいる。
このアルゴリズムは、所望の目的の下で生成分子と入力分子の改善を整列させることにより、LLMベースの生成モデルを微調整するためのユニークな視点を提供する。
2) OEDOCKドッキングを併用した100万種の化合物のデータセットは,癌細胞に関連付けられた5つのヒトタンパク質とSARS-CoV-2ウイルスからの24の結合部位にスコアを付けた。
本研究は,SPOの総合的な評価を行い,その有効性を示す。
私たちのコードとデータセットは、https://github.com/xuefeng-cs/DrugImproverGPTで公開されます。
関連論文リスト
- ScaffoldGPT: A Scaffold-based Large Language Model for Drug Improvement [2.6198448284771443]
ScaffoldGPTは分子足場に基づく薬物最適化のための新しいLarge Language Model (LLM)である。
本研究は,(1)事前学習,微調整,復号化を統合した3段階の薬物最適化アプローチである。
論文 参考訳(メタデータ) (2025-02-09T10:36:33Z) - GramSeq-DTA: A grammar-based drug-target affinity prediction approach fusing gene expression information [1.2289361708127877]
薬物や標的の構造情報と化学摂動情報を統合するGramSeq-DTAを提案する。
我々の手法は、広く使われているDTAデータセットで検証された場合、現在の最先端のDTA予測モデルよりも優れている。
論文 参考訳(メタデータ) (2024-11-03T03:17:09Z) - Decomposed Direct Preference Optimization for Structure-Based Drug Design [47.561983733291804]
本稿では,拡散モデルと医薬的ニーズを整合させる構造に基づく最適化手法であるDecompDPOを提案する。
DecompDPOは、様々なタンパク質ファミリーにまたがる分子生成のための微調整済み拡散モデルと、生成後に特定のタンパク質サブポケットを与える分子最適化の2つの主要な目的のために効果的に使用できる。
論文 参考訳(メタデータ) (2024-07-19T02:12:25Z) - Aligning Target-Aware Molecule Diffusion Models with Exact Energy Optimization [147.7899503829411]
AliDiffは、事前訓練されたターゲット拡散モデルと望ましい機能特性を整合させる新しいフレームワークである。
最先端の結合エネルギーを持つ分子を最大7.07 Avg. Vina Scoreで生成することができる。
論文 参考訳(メタデータ) (2024-07-01T06:10:29Z) - Improving Targeted Molecule Generation through Language Model Fine-Tuning Via Reinforcement Learning [0.0]
我々は,特定のタンパク質を標的とした薬物を設計する言語モデルの能力を活用する,革新的なデノボドラッグデザイン戦略を導入する。
本手法は, 薬物-標的相互作用と分子的妥当性を考慮した複合報酬関数を統合する。
論文 参考訳(メタデータ) (2024-05-10T22:19:12Z) - DecompOpt: Controllable and Decomposed Diffusion Models for Structure-based Molecular Optimization [49.85944390503957]
DecompOptは、制御可能・拡散モデルに基づく構造に基づく分子最適化手法である。
DecompOptは強いde novoベースラインよりも優れた特性を持つ分子を効率よく生成できることを示す。
論文 参考訳(メタデータ) (2024-03-07T02:53:40Z) - DrugAssist: A Large Language Model for Molecule Optimization [29.95488215594247]
DrugAssistは、人間と機械の対話を通じて最適化を行う対話型分子最適化モデルである。
DrugAssistは、単一および複数プロパティの最適化において、主要な結果を得た。
分子最適化タスクの微調整言語モデルのための,MomoOpt-Instructionsと呼ばれる大規模命令ベースデータセットを公開している。
論文 参考訳(メタデータ) (2023-12-28T10:46:56Z) - Drug Synergistic Combinations Predictions via Large-Scale Pre-Training
and Graph Structure Learning [82.93806087715507]
薬物併用療法は、より有効で安全性の低い疾患治療のための確立された戦略である。
ディープラーニングモデルは、シナジスティックな組み合わせを発見する効率的な方法として登場した。
我々のフレームワークは、他のディープラーニングベースの手法と比較して最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-01-14T15:07:43Z) - Tailoring Molecules for Protein Pockets: a Transformer-based Generative
Solution for Structured-based Drug Design [133.1268990638971]
標的タンパク質の構造に基づくデノボ薬物の設計は、新規な薬物候補を提供することができる。
そこで本研究では,特定のターゲットに対して,対象薬物をスクラッチから直接生成できるTamGentという生成ソリューションを提案する。
論文 参考訳(メタデータ) (2022-08-30T09:32:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。