論文の概要: Guiding Evolutionary Molecular Design: Adding Reinforcement Learning for Mutation Selection
- arxiv url: http://arxiv.org/abs/2510.00802v1
- Date: Wed, 01 Oct 2025 12:04:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.540648
- Title: Guiding Evolutionary Molecular Design: Adding Reinforcement Learning for Mutation Selection
- Title(参考訳): 進化的分子設計の指導:突然変異選択のための強化学習の追加
- Authors: Gaelle Milon-Harnois, Chaimaa Touhami, Nicolas Gutowski, Benoit Da Mota, Thomas Cauchy,
- Abstract要約: EvoMol-RLは、EvoMol進化アルゴリズムの重要な拡張である。
強化学習を統合し、局所的な構造的文脈に基づいて分子突然変異を誘導する。
化学的に妥当な変換を優先する文脈対応突然変異ポリシーを学習する。
- 参考スコア(独自算出の注目度): 0.6524460254566904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The efficient exploration of chemical space remains a central challenge, as many generative models still produce unstable or non-synthesizable compounds. To address these limitations, we present EvoMol-RL, a significant extension of the EvoMol evolutionary algorithm that integrates reinforcement learning to guide molecular mutations based on local structural context. By leveraging Extended Connectivity Fingerprints (ECFPs), EvoMol-RL learns context-aware mutation policies that prioritize chemically plausible transformations. This approach significantly improves the generation of valid and realistic molecules, reducing the frequency of structural artifacts and enhancing optimization performance. The results demonstrate that EvoMol-RL consistently outperforms its baseline in molecular pre-filtering realism. These results emphasize the effectiveness of combining reinforcement learning with molecular fingerprints to generate chemically relevant molecular structures.
- Abstract(参考訳): 化学空間の効率的な探索は依然として中心的な課題であり、多くの生成モデルは不安定または合成不可能な化合物を生成する。
これらの制限に対処するため,EvoMol-RLを提案する。EvoMol進化アルゴリズムは,強化学習を統合し,局所構造的文脈に基づく分子突然変異を誘導する。
拡張接続フィンガープリント(ECFP)を活用することで、EvoMol-RLは、化学的にプラウティブルな変換を優先する文脈対応の突然変異ポリシーを学ぶ。
このアプローチは有効かつ現実的な分子の生成を大幅に改善し、構造的アーティファクトの頻度を低減し、最適化性能を向上する。
結果は、EvoMol-RLが分子前フィルタリングリアリズムのベースラインを一貫して上回ることを示した。
これらの結果は、強化学習と分子指紋を組み合わせることで、化学的に関連する分子構造を生成する効果を強調した。
関連論文リスト
- Guiding Diffusion Models with Reinforcement Learning for Stable Molecule Generation [16.01877423456416]
物理フィードバックを用いた強化学習(Reinforcement Learning with Physical Feedback, RLPF)は, 拡散政策最適化を3次元分子生成に拡張する新しいフレームワークである。
RLPFは、力場評価から得られる報酬関数を導入し、エネルギー的に安定で物理的に意味のある構造への生成を導く。
QM9およびGEOM-drugデータセットの実験により、RLPFは既存の方法と比較して分子安定性を著しく改善することが示された。
論文 参考訳(メタデータ) (2025-08-22T16:44:55Z) - A Reinforcement Learning-Driven Transformer GAN for Molecular Generation [6.397243531623856]
本研究では,これらの課題に対処するために,トランスフォーマーをベースとした新しい離散GANフレームワークであるRL-MolGANを紹介する。
従来のTransformerとは異なり、RL-MolGANは最初のデコーダ-then-encoder構造を利用して、$denovo$と足場ベースの設計の両方から薬物のような分子を生成する。
さらに、RL-MolGANは強化学習(RL)とモンテカルロ木探索(MCTS)技術を統合し、GANトレーニングの安定性を高め、生成分子の化学的性質を最適化する。
論文 参考訳(メタデータ) (2025-03-17T04:06:10Z) - Enhancing Molecular Design through Graph-based Topological Reinforcement Learning [10.632524607651105]
本稿では,化学データと構造データを統合したグラフベーストポロジカル強化学習(GraphTRL)を提案する。
評価の結果、GraphTRLは既存のアフィニティ予測法よりも優れており、薬物発見を加速するための有望なアプローチを提供する。
論文 参考訳(メタデータ) (2024-11-22T04:45:55Z) - Many-Shot In-Context Learning for Molecular Inverse Design [56.65345962071059]
大規模言語モデル(LLM)は、数ショットのインコンテキスト学習(ICL)において、優れたパフォーマンスを示している。
マルチショットICLで利用可能な実験データの不足を克服する,新しい半教師付き学習手法を開発した。
示すように、この新しい手法は、既存の分子設計のためのICL法を大幅に改善し、科学者にとってアクセスしやすく、使いやすくする。
論文 参考訳(メタデータ) (2024-07-26T21:10:50Z) - Human-level molecular optimization driven by mol-gene evolution [5.409648262203544]
本研究では、DGMM(Deep Genetic Modification Algorithm)を導入し、薬剤師のレベルに構造変更をもたらす。
離散変分オートエンコーダ(D-VAE)は、分子を量子化符号、mol-geneとして符号化するためにDGMMで使用される。
論文 参考訳(メタデータ) (2024-06-13T01:06:03Z) - Mol-AIR: Molecular Reinforcement Learning with Adaptive Intrinsic Rewards for Goal-directed Molecular Generation [0.0]
Mol-AIRは、ゴール指向分子生成のための適応型固有報酬を用いた強化学習ベースのフレームワークである。
ベンチマークテストでは、Moll-AIRは所望の特性を持つ分子を生成する既存のアプローチよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-29T10:44:51Z) - E(3)-equivariant models cannot learn chirality: Field-based molecular generation [51.327048911864885]
キラリティは薬物の安全性と効力性を決定する上で重要な役割を果たしている。
回転対称性の制約に取って代わる基準回転を提案する。
提案モデルでは、キラル性を含む全ての分子測地を捕捉するが、標準ベンチマーク指標のE(3)に基づく手法と高い競争性能を保っている。
論文 参考訳(メタデータ) (2024-02-24T17:13:58Z) - Towards Predicting Equilibrium Distributions for Molecular Systems with
Deep Learning [60.02391969049972]
本稿では,分子系の平衡分布を予測するために,分散グラフマー(DiG)と呼ばれる新しいディープラーニングフレームワークを導入する。
DiGはディープニューラルネットワークを用いて分子系の記述子に条件付き平衡分布に単純な分布を変換する。
論文 参考訳(メタデータ) (2023-06-08T17:12:08Z) - Retrieval-based Controllable Molecule Generation [63.44583084888342]
制御可能な分子生成のための検索に基づく新しいフレームワークを提案する。
我々は、与えられた設計基準を満たす分子の合成に向けて、事前学習された生成モデルを操るために、分子の小さなセットを使用します。
提案手法は生成モデルの選択に非依存であり,タスク固有の微調整は不要である。
論文 参考訳(メタデータ) (2022-08-23T17:01:16Z) - Molecular Attributes Transfer from Non-Parallel Data [57.010952598634944]
分子最適化をスタイル伝達問題として定式化し、非並列データの2つのグループ間の内部差を自動的に学習できる新しい生成モデルを提案する。
毒性修飾と合成性向上という2つの分子最適化タスクの実験により,本モデルがいくつかの最先端手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2021-11-30T06:10:22Z) - Reinforced Molecular Optimization with Neighborhood-Controlled Grammars [63.84003497770347]
分子最適化のためのグラフ畳み込みポリシネットワークであるMNCE-RLを提案する。
我々は、元の近傍制御された埋め込み文法を拡張して、分子グラフ生成に適用する。
提案手法は, 分子最適化タスクの多種多様さにおいて, 最先端性能を実現する。
論文 参考訳(メタデータ) (2020-11-14T05:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。