論文の概要: Gradient GA: Gradient Genetic Algorithm for Drug Molecular Design
- arxiv url: http://arxiv.org/abs/2502.09860v1
- Date: Fri, 14 Feb 2025 02:03:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:47:06.476661
- Title: Gradient GA: Gradient Genetic Algorithm for Drug Molecular Design
- Title(参考訳): グラディエントGA:薬物分子設計のためのグラディエント遺伝的アルゴリズム
- Authors: Chris Zhuang, Debadyuti Mukherjee, Yingzhou Lu, Tianfan Fu, Ruqi Zhang,
- Abstract要約: 実験の結果,提案手法は収束速度と解法品質の両方を著しく改善し,最先端技術よりも優れていた。
例えば、バニラ遺伝アルゴリズムよりも最大25%向上している。
- 参考スコア(独自算出の注目度): 17.597915824192953
- License:
- Abstract: Molecular discovery has brought great benefits to the chemical industry. Various molecule design techniques are developed to identify molecules with desirable properties. Traditional optimization methods, such as genetic algorithms, continue to achieve state-of-the-art results across multiple molecular design benchmarks. However, these techniques rely solely on random walk exploration, which hinders both the quality of the final solution and the convergence speed. To address this limitation, we propose a novel approach called Gradient Genetic Algorithm (Gradient GA), which incorporates gradient information from the objective function into genetic algorithms. Instead of random exploration, each proposed sample iteratively progresses toward an optimal solution by following the gradient direction. We achieve this by designing a differentiable objective function parameterized by a neural network and utilizing the Discrete Langevin Proposal to enable gradient guidance in discrete molecular spaces. Experimental results demonstrate that our method significantly improves both convergence speed and solution quality, outperforming cutting-edge techniques. For example, it achieves up to a 25% improvement in the top-10 score over the vanilla genetic algorithm. The code is publicly available at https://github.com/debadyuti23/GradientGA.
- Abstract(参考訳): 分子発見は化学産業に大きな利益をもたらした。
様々な分子設計技術が開発され、望ましい性質を持つ分子を同定する。
遺伝的アルゴリズムのような従来の最適化手法は、複数の分子設計ベンチマークで最先端の結果が得られ続けている。
しかし、これらの手法は、最終解の質と収束速度の両方を妨げるランダムウォーク探索にのみ依存する。
この制限に対処するため、目的関数からの勾配情報を遺伝的アルゴリズムに組み込むグラディエント遺伝的アルゴリズム(Gradient Genetic Algorithm, Gradient GA)を提案する。
ランダム探索の代わりに、各提案されたサンプルは、勾配方向に従って最適解に向かって反復的に進行する。
我々は、ニューラルネットワークによってパラメータ化される微分対象関数を設計し、離散分子空間における勾配誘導を可能にするために離散ランゲヴィン提案を利用する。
実験の結果,提案手法は収束速度と解法品質の両方を著しく改善し,最先端技術よりも優れていた。
例えば、バニラ遺伝アルゴリズムよりも最高10点のスコアが最大25%向上する。
コードはhttps://github.com/debadyuti23/GradientGAで公開されている。
関連論文リスト
- Derivative-Free Guidance in Continuous and Discrete Diffusion Models with Soft Value-Based Decoding [84.3224556294803]
拡散モデルは、画像、分子、DNA、RNA、タンパク質配列の自然なデザイン空間を捉えるのに優れている。
これらの設計空間の自然性を保ちながら、下流の報酬関数を最適化することを目指している。
提案アルゴリズムは,中間雑音状態が将来高い報酬をもたらすことの先駆けとして,ソフトバリュー関数を統合する。
論文 参考訳(メタデータ) (2024-08-15T16:47:59Z) - Massive Dimensions Reduction and Hybridization with Meta-heuristics in Deep Learning [0.24578723416255746]
ヒストグラムに基づく微分進化(HBDE)は、パラメータを最適化するために勾配に基づくアルゴリズムと勾配のないアルゴリズムをハイブリダイズする。
HBDEは、CIFAR-10とCIFAR-100データセットに基づいて評価されたベースライン勾配と親勾配のないDEMアルゴリズムより優れている。
論文 参考訳(メタデータ) (2024-08-13T20:28:20Z) - Genetic-guided GFlowNets for Sample Efficient Molecular Optimization [33.270494123656746]
深層学習に基づく生成手法の最近の進歩は、将来性を示しているが、サンプル効率の問題に直面している。
本稿では,強力な遺伝的アルゴリズムを深く生成する手法として,サンプル効率のよい分子最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-05T04:12:40Z) - ELRA: Exponential learning rate adaption gradient descent optimization
method [83.88591755871734]
我々は, 高速(指数率), ab initio(超自由)勾配に基づく適応法を提案する。
本手法の主な考え方は,状況認識による$alphaの適応である。
これは任意の次元 n の問題に適用でき、線型にしかスケールできない。
論文 参考訳(メタデータ) (2023-09-12T14:36:13Z) - Genetically Modified Wolf Optimization with Stochastic Gradient Descent
for Optimising Deep Neural Networks [0.0]
本研究の目的は、人口ベースメタヒューリスティックアルゴリズムを用いて、ニューラルネットワーク(NN)重み付けを最適化するための代替アプローチを分析することである。
Grey Wolf (GWO) と Genetic Modified Algorithms (GA) のハイブリッドをグラディエント・Descent (SGD) と組み合わせて検討した。
このアルゴリズムは、高次元性の問題にも対処しながら、エクスプロイトと探索の組み合わせを可能にする。
論文 参考訳(メタデータ) (2023-01-21T13:22:09Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Improving RNA Secondary Structure Design using Deep Reinforcement
Learning [69.63971634605797]
本稿では,RNA配列設計に強化学習を適用した新しいベンチマークを提案する。このベンチマークでは,目的関数を配列の二次構造における自由エネルギーとして定義する。
本稿では,これらのアルゴリズムに対して行うアブレーション解析の結果と,バッチ間でのアルゴリズムの性能を示すグラフを示す。
論文 参考訳(メタデータ) (2021-11-05T02:54:06Z) - JANUS: Parallel Tempered Genetic Algorithm Guided by Deep Neural
Networks for Inverse Molecular Design [1.6114012813668934]
逆分子設計、すなわち特定の目的特性を持つ分子を設計することは最適化問題として考えられる。
ジャヌス (Janus) は、2つの個体群を伝播させ、もう1つは探索用、もう1つは搾取用の遺伝的アルゴリズムである。
Janusは、化学空間のサンプリングを増強するために能動的学習を通じて分子特性を近似するディープニューラルネットワークによって強化される。
論文 参考訳(メタデータ) (2021-06-07T23:41:34Z) - Guiding Deep Molecular Optimization with Genetic Exploration [79.50698140997726]
本稿では,深層ニューラルネットワーク(DNN)を訓練し,高次分子を生成する,遺伝的専門家誘導学習(GEGL)を提案する。
大規模な実験により、GEGLは最先端の手法よりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2020-07-04T05:01:26Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。