論文の概要: Improving Targeted Molecule Generation through Language Model Fine-Tuning Via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2405.06836v1
- Date: Fri, 10 May 2024 22:19:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 19:55:18.163872
- Title: Improving Targeted Molecule Generation through Language Model Fine-Tuning Via Reinforcement Learning
- Title(参考訳): 言語モデルファインチューニング型強化学習による目標分子生成の改善
- Authors: Salma J. Ahmed, Mustafa A. Elattar,
- Abstract要約: 我々は,特定のタンパク質を標的とした薬物を設計する言語モデルの能力を活用する,革新的なデノボドラッグデザイン戦略を導入する。
本手法は, 薬物-標的相互作用と分子的妥当性を考慮した複合報酬関数を統合する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Developing new drugs is laborious and costly, demanding extensive time investment. In this study, we introduce an innovative de-novo drug design strategy, which harnesses the capabilities of language models to devise targeted drugs for specific proteins. Employing a Reinforcement Learning (RL) framework utilizing Proximal Policy Optimization (PPO), we refine the model to acquire a policy for generating drugs tailored to protein targets. Our method integrates a composite reward function, combining considerations of drug-target interaction and molecular validity. Following RL fine-tuning, our approach demonstrates promising outcomes, yielding notable improvements in molecular validity, interaction efficacy, and critical chemical properties, achieving 65.37 for Quantitative Estimation of Drug-likeness (QED), 321.55 for Molecular Weight (MW), and 4.47 for Octanol-Water Partition Coefficient (logP), respectively. Furthermore, out of the generated drugs, only 0.041\% do not exhibit novelty.
- Abstract(参考訳): 新しい薬の開発は手間がかかり費用もかかるため、幅広い時間的投資を必要としている。
本研究では,特定のタンパク質を標的とした薬物を設計する言語モデルの能力を活用する,革新的なデノボ創薬戦略を提案する。
PPO(Proximal Policy Optimization)を利用した強化学習(Reinforcement Learning, RL)フレームワークを応用し, タンパク質標的に適合する薬剤を生産するためのポリシーを改良する。
本手法は, 薬物-標的相互作用と分子的妥当性を考慮した複合報酬関数を統合する。
RLの微調整により, 分子効率, 相互作用効率, 臨界化学的特性の顕著な改善, 薬物類似性の定量評価65.37, 分子量321.55, およびオクタノール-水分配係数4.47が得られた。
さらに、生成した薬物のうち、新規性は0.041\%に留まる。
関連論文リスト
- DrugGen: Advancing Drug Discovery with Large Language Models and Reinforcement Learning Feedback [0.0]
DrugGen は DrugGPT 構造に基づく拡張モデルである。
承認された薬物と標的の相互作用を微調整し、近似ポリシー最適化に最適化されている。
高品質の小さな分子を生産することで、薬学研究と薬物発見を進めるための高性能な媒体を提供する。
論文 参考訳(メタデータ) (2024-11-20T01:21:07Z) - Fragment-Masked Molecular Optimization [37.20936761888007]
表現型薬物発見(PDD)に基づくフラグメントマインド分子最適化法を提案する。
PDDに基づく分子最適化は、表現型活性を最適化しながら潜在的な安全性リスクを低減し、臨床成功の可能性を高める。
総合的な実験により、シリカ内最適化の成功率は94.4%に達し、平均効率は5.3%上昇した。
論文 参考訳(メタデータ) (2024-08-17T06:00:58Z) - Decomposed Direct Preference Optimization for Structure-Based Drug Design [47.561983733291804]
本稿では,拡散モデルと医薬的ニーズを整合させる構造に基づく最適化手法であるDecompDPOを提案する。
DecompDPOは、様々なタンパク質ファミリーにまたがる分子生成のための微調整済み拡散モデルと、生成後に特定のタンパク質サブポケットを与える分子最適化の2つの主要な目的のために効果的に使用できる。
論文 参考訳(メタデータ) (2024-07-19T02:12:25Z) - Aligning Target-Aware Molecule Diffusion Models with Exact Energy Optimization [147.7899503829411]
AliDiffは、事前訓練されたターゲット拡散モデルと望ましい機能特性を整合させる新しいフレームワークである。
最先端の結合エネルギーを持つ分子を最大7.07 Avg. Vina Scoreで生成することができる。
論文 参考訳(メタデータ) (2024-07-01T06:10:29Z) - Latent Chemical Space Searching for Plug-in Multi-objective Molecule Generation [9.442146563809953]
本研究では, 標的親和性, 薬物類似性, 合成性に関連する目的を組み込んだ, 汎用的な「プラグイン」分子生成モデルを構築した。
我々はPSO-ENPを多目的分子生成と最適化のための最適変種として同定する。
論文 参考訳(メタデータ) (2024-04-10T02:37:24Z) - Mol-AIR: Molecular Reinforcement Learning with Adaptive Intrinsic Rewards for Goal-directed Molecular Generation [0.0]
Mol-AIRは、ゴール指向分子生成のための適応型固有報酬を用いた強化学習ベースのフレームワークである。
ベンチマークテストでは、Moll-AIRは所望の特性を持つ分子を生成する既存のアプローチよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-29T10:44:51Z) - Tailoring Molecules for Protein Pockets: a Transformer-based Generative
Solution for Structured-based Drug Design [133.1268990638971]
標的タンパク質の構造に基づくデノボ薬物の設計は、新規な薬物候補を提供することができる。
そこで本研究では,特定のターゲットに対して,対象薬物をスクラッチから直接生成できるTamGentという生成ソリューションを提案する。
論文 参考訳(メタデータ) (2022-08-30T09:32:39Z) - Widely Used and Fast De Novo Drug Design by a Protein Sequence-Based
Reinforcement Learning Model [4.815696666006742]
構造に基づくde novo法は、薬物と標的の相互作用を深く生成するアーキテクチャに組み込むことによって、アクティブなデータ不足を克服することができる。
本稿では,医薬品発見のためのタンパク質配列に基づく拡張学習モデルについて紹介する。
概念実証として、RLモデルを用いて分子を4つのターゲットに設計した。
論文 参考訳(メタデータ) (2022-08-14T10:41:52Z) - Molecular Attributes Transfer from Non-Parallel Data [57.010952598634944]
分子最適化をスタイル伝達問題として定式化し、非並列データの2つのグループ間の内部差を自動的に学習できる新しい生成モデルを提案する。
毒性修飾と合成性向上という2つの分子最適化タスクの実験により,本モデルがいくつかの最先端手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2021-11-30T06:10:22Z) - Improved Drug-target Interaction Prediction with Intermolecular Graph
Transformer [98.8319016075089]
本稿では,3方向トランスフォーマーアーキテクチャを用いて分子間情報をモデル化する手法を提案する。
分子間グラフ変換器(IGT)は、それぞれ、結合活性と結合ポーズ予測の2番目のベストに対して、最先端のアプローチを9.1%と20.5%で上回っている。
IGTはSARS-CoV-2に対して有望な薬物スクリーニング能力を示す。
論文 参考訳(メタデータ) (2021-10-14T13:28:02Z) - CogMol: Target-Specific and Selective Drug Design for COVID-19 Using
Deep Generative Models [74.58583689523999]
新規なウイルスタンパク質を標的とした新規な薬物様小分子を設計するためのエンド・ツー・エンドのフレームワークであるCogMolを提案する。
CogMolは、分子SMILES変分オートエンコーダ(VAE)の適応事前学習と、効率的なマルチ属性制御サンプリングスキームを組み合わせる。
CogMolは、高目標特異性と選択性を有する合成可能で低毒性な薬物様分子の多制約設計を扱う。
論文 参考訳(メタデータ) (2020-04-02T18:17:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。