論文の概要: De Novo Molecular Design Enabled by Direct Preference Optimization and Curriculum Learning
- arxiv url: http://arxiv.org/abs/2504.01389v1
- Date: Wed, 02 Apr 2025 06:00:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:17:56.521779
- Title: De Novo Molecular Design Enabled by Direct Preference Optimization and Curriculum Learning
- Title(参考訳): 直接選好最適化とカリキュラム学習によるDenovo分子設計
- Authors: Junyu Hou,
- Abstract要約: デノボ分子設計は、薬物発見と材料科学に広く応用されている。
巨大な化学空間は直接分子探索を計算的に禁止し、従来の実験スクリーニングは時間と労働の両方に集約している。
NLPの直接選好最適化(DPO)は、分子スコアに基づくサンプルペアを使用して、高品質分子と低品質分子の確率差を最大化する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: De novo molecular design has extensive applications in drug discovery and materials science. The vast chemical space renders direct molecular searches computationally prohibitive, while traditional experimental screening is both time- and labor-intensive. Efficient molecular generation and screening methods are therefore essential for accelerating drug discovery and reducing costs. Although reinforcement learning (RL) has been applied to optimize molecular properties via reward mechanisms, its practical utility is limited by issues in training efficiency, convergence, and stability. To address these challenges, we adopt Direct Preference Optimization (DPO) from NLP, which uses molecular score-based sample pairs to maximize the likelihood difference between high- and low-quality molecules, effectively guiding the model toward better compounds. Moreover, integrating curriculum learning further boosts training efficiency and accelerates convergence. A systematic evaluation of the proposed method on the GuacaMol Benchmark yielded excellent scores. For instance, the method achieved a score of 0.883 on the Perindopril MPO task, representing a 6\% improvement over competing models. And subsequent target protein binding experiments confirmed its practical efficacy. These results demonstrate the strong potential of DPO for molecular design tasks and highlight its effectiveness as a robust and efficient solution for data-driven drug discovery.
- Abstract(参考訳): デノボ分子設計は、薬物発見と材料科学に広く応用されている。
巨大な化学空間は直接分子探索を計算的に禁止し、従来の実験スクリーニングは時間と労働の両方を集中的に行う。
したがって、効率的な分子生成とスクリーニングは、薬物発見とコスト削減の促進に不可欠である。
強化学習(RL)は、報酬機構による分子特性の最適化に応用されているが、その実用性は、訓練効率、収束性、安定性の問題によって制限されている。
これらの課題に対処するために,分子スコアに基づくサンプルペアを用いたNLPの直接選好最適化(DPO)を導入し,高次分子と低次分子の確率差を最大化し,より優れた化合物に向けてモデルを効果的に導く。
さらに、カリキュラム学習の統合により、トレーニング効率が向上し、収束が加速する。
GuacaMol Benchmarkにおける提案手法の体系的評価は優れたスコアを得た。
例えば、この手法はPerindopril MPOタスクで0.883のスコアを達成し、競合するモデルよりも66%改善した。
その後の標的タンパク質結合実験により、実用性が確認された。
これらの結果は、分子設計タスクにおけるDPOの強い可能性を示し、データ駆動型薬物発見のための堅牢で効率的なソリューションとしての有効性を強調している。
関連論文リスト
- Diversity-Aware Reinforcement Learning for de novo Drug Design [2.356290293311623]
事前訓練された生成モデルの微調整は、有望な薬物分子の生成に優れた性能を示した。
報酬関数の適応的更新機構が生成分子の多様性にどのように影響するかは研究されていない。
我々の実験は、構造と予測に基づく手法を組み合わせることで、一般的に分子多様性の点でより良い結果が得られることを示した。
論文 参考訳(メタデータ) (2024-10-14T12:25:23Z) - Fragment-Masked Molecular Optimization [37.20936761888007]
表現型薬物発見(PDD)に基づくフラグメントマインド分子最適化法を提案する。
PDDに基づく分子最適化は、表現型活性を最適化しながら潜在的な安全性リスクを低減し、臨床成功の可能性を高める。
総合的な実験により、シリカ内最適化の成功率は94.4%に達し、平均効率は5.3%上昇した。
論文 参考訳(メタデータ) (2024-08-17T06:00:58Z) - Aligning Target-Aware Molecule Diffusion Models with Exact Energy Optimization [147.7899503829411]
AliDiffは、事前訓練されたターゲット拡散モデルと望ましい機能特性を整合させる新しいフレームワークである。
最先端の結合エネルギーを持つ分子を最大7.07 Avg. Vina Scoreで生成することができる。
論文 参考訳(メタデータ) (2024-07-01T06:10:29Z) - Regressor-free Molecule Generation to Support Drug Response Prediction [83.25894107956735]
目標IC50スコアに基づく条件生成により、より効率的なサンプリングスペースを得ることができる。
回帰自由誘導は、拡散モデルのスコア推定と、数値ラベルに基づく回帰制御モデルの勾配を結合する。
論文 参考訳(メタデータ) (2024-05-23T13:22:17Z) - Improving Targeted Molecule Generation through Language Model Fine-Tuning Via Reinforcement Learning [0.0]
我々は,特定のタンパク質を標的とした薬物を設計する言語モデルの能力を活用する,革新的なデノボドラッグデザイン戦略を導入する。
本手法は, 薬物-標的相互作用と分子的妥当性を考慮した複合報酬関数を統合する。
論文 参考訳(メタデータ) (2024-05-10T22:19:12Z) - Mol-AIR: Molecular Reinforcement Learning with Adaptive Intrinsic Rewards for Goal-directed Molecular Generation [0.0]
Mol-AIRは、ゴール指向分子生成のための適応型固有報酬を用いた強化学習ベースのフレームワークである。
ベンチマークテストでは、Moll-AIRは所望の特性を持つ分子を生成する既存のアプローチよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-29T10:44:51Z) - Exploring Chemical Space with Score-based Out-of-distribution Generation [57.15855198512551]
生成微分方程式(SDE)にアウト・オブ・ディストリビューション制御を組み込んだスコアベース拡散方式を提案する。
いくつかの新しい分子は現実世界の薬物の基本的な要件を満たしていないため、MOODは特性予測器からの勾配を利用して条件付き生成を行う。
我々はMOODがトレーニング分布を超えて化学空間を探索できることを実験的に検証し、既存の方法で見いだされた分子、そして元のトレーニングプールの上位0.01%までも生成できることを実証した。
論文 参考訳(メタデータ) (2022-06-06T06:17:11Z) - CELLS: Cost-Effective Evolution in Latent Space for Goal-Directed
Molecular Generation [23.618366377098614]
本稿では,分子潜在表現ベクトルを最適化した遅延空間におけるコスト効率のよい進化戦略を提案する。
我々は、潜伏空間と観測空間をマッピングするために、事前訓練された分子生成モデルを採用する。
提案手法といくつかの高度な手法を比較した複数の最適化タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-11-30T11:02:18Z) - Optimizing Molecules using Efficient Queries from Property Evaluations [66.66290256377376]
汎用的なクエリベースの分子最適化フレームワークであるQMOを提案する。
QMOは効率的なクエリに基づいて入力分子の所望の特性を改善する。
QMOは, 有機分子を最適化するベンチマークタスクにおいて, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-03T18:51:18Z) - Guiding Deep Molecular Optimization with Genetic Exploration [79.50698140997726]
本稿では,深層ニューラルネットワーク(DNN)を訓練し,高次分子を生成する,遺伝的専門家誘導学習(GEGL)を提案する。
大規模な実験により、GEGLは最先端の手法よりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2020-07-04T05:01:26Z) - Deep Learning for Virtual Screening: Five Reasons to Use ROC Cost
Functions [80.12620331438052]
深層学習は サイリコの何十億もの分子を 迅速にスクリーニングする 重要なツールとなりました
その重要性にもかかわらず、厳密なクラス不均衡、高い決定しきい値、いくつかのデータセットにおける基底真理ラベルの欠如など、これらのモデルのトレーニングにおいて重大な課題が続いている。
このような場合、クラス不均衡に対するロバスト性から、レシーバ動作特性(ROC)を直接最適化することを好んで論じる。
論文 参考訳(メタデータ) (2020-06-25T08:46:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。