論文の概要: Utilizing Reinforcement Learning for de novo Drug Design
- arxiv url: http://arxiv.org/abs/2303.17615v2
- Date: Tue, 30 Jan 2024 21:09:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 20:26:00.476502
- Title: Utilizing Reinforcement Learning for de novo Drug Design
- Title(参考訳): de novo薬物設計における強化学習の活用
- Authors: Hampus Gummesson Svensson, Christian Tyrchan, Ola Engkvist, Morteza
Haghir Chehreghani
- Abstract要約: ド・ノボ薬物設計のための強化学習のための統一的な枠組みを開発する。
我々は、RNNベースのポリシーを学ぶために、様々なオン・オフ・ポリシー強化学習アルゴリズムとリプレイバッファについて研究する。
以上の結果から,少なくともトップスカラー分子とロースカラー分子の両方を用いる方が,ポリシー更新に有利であることが示唆された。
- 参考スコア(独自算出の注目度): 2.5740778707024305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based approaches for generating novel drug molecules with
specific properties have gained a lot of interest in the last few years. Recent
studies have demonstrated promising performance for string-based generation of
novel molecules utilizing reinforcement learning. In this paper, we develop a
unified framework for using reinforcement learning for de novo drug design,
wherein we systematically study various on- and off-policy reinforcement
learning algorithms and replay buffers to learn an RNN-based policy to generate
novel molecules predicted to be active against the dopamine receptor DRD2. Our
findings suggest that it is advantageous to use at least both top-scoring and
low-scoring molecules for updating the policy when structural diversity is
essential. Using all generated molecules at an iteration seems to enhance
performance stability for on-policy algorithms. In addition, when replaying
high, intermediate, and low-scoring molecules, off-policy algorithms display
the potential of improving the structural diversity and number of active
molecules generated, but possibly at the cost of a longer exploration phase.
Our work provides an open-source framework enabling researchers to investigate
various reinforcement learning methods for de novo drug design.
- Abstract(参考訳): 特定の性質を持つ新規な薬物分子を生成するためのディープラーニングベースのアプローチは、ここ数年で大きな関心を集めている。
近年の研究では、強化学習を利用した新規分子の文字列ベース生成に有望な性能を示した。
本稿では,ドパミン受容体RDD2に対して活性を示すと予測される新規分子を生成するためのRNNベースのポリシーを学習するために,ドノボ薬物設計のための強化学習を用いた統一的な枠組みを開発し,様々なオン・オフ・ポリティクス強化学習アルゴリズムとバッファーを体系的に研究する。
以上の結果から,少なくともトップスコーリング分子とロースコーリング分子の両方を,構造多様性が不可欠である場合の方針更新に利用する方が有利であることが示唆された。
すべての生成分子を反復で使用すると、オンポジーアルゴリズムのパフォーマンス安定性が向上するようである。
さらに、高分子、中間分子、低分子を再生する場合、オフポリシーアルゴリズムは、生成する活性分子の構造的多様性と数を改善する可能性を示すが、より長い探索フェーズのコストがかかる可能性がある。
本研究は,ド・ノボ薬物設計のための様々な強化学習手法を研究者が研究できるオープンソースフレームワークを提供する。
関連論文リスト
- Many-Shot In-Context Learning for Molecular Inverse Design [56.65345962071059]
大規模言語モデル(LLM)は、数ショットのインコンテキスト学習(ICL)において、優れたパフォーマンスを示している。
マルチショットICLで利用可能な実験データの不足を克服する,新しい半教師付き学習手法を開発した。
示すように、この新しい手法は、既存の分子設計のためのICL法を大幅に改善し、科学者にとってアクセスしやすく、使いやすくする。
論文 参考訳(メタデータ) (2024-07-26T21:10:50Z) - Latent Chemical Space Searching for Plug-in Multi-objective Molecule Generation [9.442146563809953]
本研究では, 標的親和性, 薬物類似性, 合成性に関連する目的を組み込んだ, 汎用的な「プラグイン」分子生成モデルを構築した。
我々はPSO-ENPを多目的分子生成と最適化のための最適変種として同定する。
論文 参考訳(メタデータ) (2024-04-10T02:37:24Z) - Mol-AIR: Molecular Reinforcement Learning with Adaptive Intrinsic Rewards for Goal-directed Molecular Generation [0.0]
Mol-AIRは、ゴール指向分子生成のための適応型固有報酬を用いた強化学習ベースのフレームワークである。
ベンチマークテストでは、Moll-AIRは所望の特性を持つ分子を生成する既存のアプローチよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-29T10:44:51Z) - Hybrid quantum cycle generative adversarial network for small molecule
generation [0.0]
本研究は、パラメタライズド量子回路の既知の分子生成逆数ネットワークへの工学的統合に基づく、いくつかの新しい生成逆数ネットワークモデルを導入する。
導入された機械学習モデルには、強化学習原理に基づく新しいマルチパラメータ報酬関数が組み込まれている。
論文 参考訳(メタデータ) (2023-12-28T14:10:26Z) - Drug Synergistic Combinations Predictions via Large-Scale Pre-Training
and Graph Structure Learning [82.93806087715507]
薬物併用療法は、より有効で安全性の低い疾患治療のための確立された戦略である。
ディープラーニングモデルは、シナジスティックな組み合わせを発見する効率的な方法として登場した。
我々のフレームワークは、他のディープラーニングベースの手法と比較して最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-01-14T15:07:43Z) - Faster and more diverse de novo molecular optimization with double-loop
reinforcement learning using augmented SMILES [0.0]
本稿では,分子線入力システム(SMILES)を簡略化した二重ループ強化学習を用いて,スコアリング計算をより効率的に行うことを提案する。
その結果,5~10倍の増量繰り返しは,ほとんどのスコアリング関数に対して安全であり,生成化合物の多様性も増大することがわかった。
論文 参考訳(メタデータ) (2022-10-22T14:36:38Z) - Retrieval-based Controllable Molecule Generation [63.44583084888342]
制御可能な分子生成のための検索に基づく新しいフレームワークを提案する。
我々は、与えられた設計基準を満たす分子の合成に向けて、事前学習された生成モデルを操るために、分子の小さなセットを使用します。
提案手法は生成モデルの選択に非依存であり,タスク固有の微調整は不要である。
論文 参考訳(メタデータ) (2022-08-23T17:01:16Z) - Improving RNA Secondary Structure Design using Deep Reinforcement
Learning [69.63971634605797]
本稿では,RNA配列設計に強化学習を適用した新しいベンチマークを提案する。このベンチマークでは,目的関数を配列の二次構造における自由エネルギーとして定義する。
本稿では,これらのアルゴリズムに対して行うアブレーション解析の結果と,バッチ間でのアルゴリズムの性能を示すグラフを示す。
論文 参考訳(メタデータ) (2021-11-05T02:54:06Z) - MIMOSA: Multi-constraint Molecule Sampling for Molecule Optimization [51.00815310242277]
生成モデルと強化学習アプローチは、最初の成功をおさめたが、複数の薬物特性を同時に最適化する上で、依然として困難に直面している。
本稿では,MultI-Constraint MOlecule SAmpling (MIMOSA)アプローチ,初期推定として入力分子を用いるサンプリングフレームワーク,ターゲット分布からのサンプル分子を提案する。
論文 参考訳(メタデータ) (2020-10-05T20:18:42Z) - Learning To Navigate The Synthetically Accessible Chemical Space Using
Reinforcement Learning [75.95376096628135]
ド・ノボ薬物設計のための強化学習(RL)を利用した新しい前方合成フレームワークを提案する。
このセットアップでは、エージェントは巨大な合成可能な化学空間をナビゲートする。
本研究は,合成可能な化学空間を根本的に拡張する上で,エンド・ツー・エンド・トレーニングが重要なパラダイムであることを示す。
論文 参考訳(メタデータ) (2020-04-26T21:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。