論文の概要: Genetic-guided GFlowNets for Sample Efficient Molecular Optimization
- arxiv url: http://arxiv.org/abs/2402.05961v3
- Date: Tue, 29 Oct 2024 21:19:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:25:16.498263
- Title: Genetic-guided GFlowNets for Sample Efficient Molecular Optimization
- Title(参考訳): 遺伝的誘導型GFlowNetによる分子最適化
- Authors: Hyeonah Kim, Minsu Kim, Sanghyeok Choi, Jinkyoo Park,
- Abstract要約: 深層学習に基づく生成手法の最近の進歩は、将来性を示しているが、サンプル効率の問題に直面している。
本稿では,強力な遺伝的アルゴリズムを深く生成する手法として,サンプル効率のよい分子最適化アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 33.270494123656746
- License:
- Abstract: The challenge of discovering new molecules with desired properties is crucial in domains like drug discovery and material design. Recent advances in deep learning-based generative methods have shown promise but face the issue of sample efficiency due to the computational expense of evaluating the reward function. This paper proposes a novel algorithm for sample-efficient molecular optimization by distilling a powerful genetic algorithm into deep generative policy using GFlowNets training, the off-policy method for amortized inference. This approach enables the deep generative policy to learn from domain knowledge, which has been explicitly integrated into the genetic algorithm. Our method achieves state-of-the-art performance in the official molecular optimization benchmark, significantly outperforming previous methods. It also demonstrates effectiveness in designing inhibitors against SARS-CoV-2 with substantially fewer reward calls.
- Abstract(参考訳): 薬物発見や物質設計といった分野において、望ましい性質を持つ新しい分子を発見するという課題が重要である。
近年の深層学習による生成手法の進歩は有望であるが,報酬関数の評価に費用がかかるため,サンプル効率の問題に直面している。
本稿では,GFlowNetsトレーニングを用いて,強力な遺伝的アルゴリズムを深層生成ポリシーに蒸留し,サンプル効率のよい分子最適化手法を提案する。
このアプローチは、遺伝的アルゴリズムに明示的に統合されたドメイン知識から深い生成ポリシーを学ぶことを可能にする。
提案手法は, 分子最適化ベンチマークにおいて, 従来の手法よりも大幅に優れ, 最先端性能を実現している。
また、SARS-CoV-2に対するインヒビターの設計にも効果を示す。
関連論文リスト
- Quantum-inspired Reinforcement Learning for Synthesizable Drug Design [20.00111975801053]
本稿では, 量子インスパイアされた擬似アニール型ニューラルネットワークを用いた強化学習手法を用いて, 化学構造の離散空間をインテリジェントにナビゲートする手法を提案する。
具体的には、ポリシーニューラルネットワークを用いた決定論的REINFORCEアルゴリズムを用いて、状態遷移と局所探索を誘導する遷移確率を出力する。
提案手法は10Kのクエリ予算を持つPMOベンチマークフレームワークを用いて評価する。
論文 参考訳(メタデータ) (2024-09-13T20:43:16Z) - Optimal feature rescaling in machine learning based on neural networks [0.0]
遺伝的アルゴリズム(GA)により入力特徴の最適再スケーリング(OFR)を行う。
OFRは、トレーニングに使用される勾配ベースのアルゴリズムの条件付けを改善する入力空間を再設定する。
この手法は、実産業プロセスの結果をモデル化したFFNNでテストされている。
論文 参考訳(メタデータ) (2024-02-13T21:57:31Z) - Thompson sampling for improved exploration in GFlowNets [75.89693358516944]
生成フローネットワーク(Generative Flow Networks, GFlowNets)は、合成対象物上の分布からのサンプリングを、学習可能なアクションポリシーを用いたシーケンシャルな意思決定問題として扱う、アモータイズされた変分推論アルゴリズムである。
2つの領域において、TS-GFNは、過去の研究で使われたオフ・ポリティクス・サーベイ・ストラテジーよりも、探索を改善し、目標分布への収束を早くすることを示す。
論文 参考訳(メタデータ) (2023-06-30T14:19:44Z) - Genetically Modified Wolf Optimization with Stochastic Gradient Descent
for Optimising Deep Neural Networks [0.0]
本研究の目的は、人口ベースメタヒューリスティックアルゴリズムを用いて、ニューラルネットワーク(NN)重み付けを最適化するための代替アプローチを分析することである。
Grey Wolf (GWO) と Genetic Modified Algorithms (GA) のハイブリッドをグラディエント・Descent (SGD) と組み合わせて検討した。
このアルゴリズムは、高次元性の問題にも対処しながら、エクスプロイトと探索の組み合わせを可能にする。
論文 参考訳(メタデータ) (2023-01-21T13:22:09Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Direct Mutation and Crossover in Genetic Algorithms Applied to
Reinforcement Learning Tasks [0.9137554315375919]
本稿では、遺伝的アルゴリズム(GA)を用いて神経進化を適用し、最適な行動エージェントを生成するニューラルネットワークの重みを見つけることに焦点を当てる。
本稿では,データ効率と収束速度を初期実装と比較して改善する2つの新しい修正法を提案する。
論文 参考訳(メタデータ) (2022-01-13T07:19:28Z) - Improving RNA Secondary Structure Design using Deep Reinforcement
Learning [69.63971634605797]
本稿では,RNA配列設計に強化学習を適用した新しいベンチマークを提案する。このベンチマークでは,目的関数を配列の二次構造における自由エネルギーとして定義する。
本稿では,これらのアルゴリズムに対して行うアブレーション解析の結果と,バッチ間でのアルゴリズムの性能を示すグラフを示す。
論文 参考訳(メタデータ) (2021-11-05T02:54:06Z) - JANUS: Parallel Tempered Genetic Algorithm Guided by Deep Neural
Networks for Inverse Molecular Design [1.6114012813668934]
逆分子設計、すなわち特定の目的特性を持つ分子を設計することは最適化問題として考えられる。
ジャヌス (Janus) は、2つの個体群を伝播させ、もう1つは探索用、もう1つは搾取用の遺伝的アルゴリズムである。
Janusは、化学空間のサンプリングを増強するために能動的学習を通じて分子特性を近似するディープニューラルネットワークによって強化される。
論文 参考訳(メタデータ) (2021-06-07T23:41:34Z) - Variance-Reduced Off-Policy Memory-Efficient Policy Search [61.23789485979057]
政治政策の最適化は強化学習において難しい問題である。
オフポリシーアルゴリズムはメモリ効率が高く、オフポリシーサンプルから学ぶことができる。
論文 参考訳(メタデータ) (2020-09-14T16:22:46Z) - Guiding Deep Molecular Optimization with Genetic Exploration [79.50698140997726]
本稿では,深層ニューラルネットワーク(DNN)を訓練し,高次分子を生成する,遺伝的専門家誘導学習(GEGL)を提案する。
大規模な実験により、GEGLは最先端の手法よりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2020-07-04T05:01:26Z) - Implementation Matters in Deep Policy Gradients: A Case Study on PPO and
TRPO [90.90009491366273]
本稿では,2つの一般的なアルゴリズムのケーススタディにより,ディープポリシー勾配アルゴリズムにおけるアルゴリズムの進歩のルーツについて検討する。
具体的には,「コードレベルの最適化」の結果について検討する。
以上の結果から, (a) TRPOに対するPPOの累積報酬のほとんどを担っていることが示され, (b) RL メソッドの動作方法が根本的に変化していることが示唆された。
論文 参考訳(メタデータ) (2020-05-25T16:24:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。