論文の概要: Genetic-guided GFlowNets: Advancing in Practical Molecular Optimization
Benchmark
- arxiv url: http://arxiv.org/abs/2402.05961v1
- Date: Mon, 5 Feb 2024 04:12:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-18 14:21:58.391469
- Title: Genetic-guided GFlowNets: Advancing in Practical Molecular Optimization
Benchmark
- Title(参考訳): 遺伝的誘導型GFlowNets:実践的分子最適化ベンチマークの改善
- Authors: Hyeonah Kim, Minsu Kim, Sanghyeok Choi, Jinkyoo Park
- Abstract要約: 本稿では遺伝子誘導型GFlowNet(Genetic GFN)の新規変種を提案する。
GFNは反復的遺伝子探索をGFlowNetに統合する。
提案手法は16.213の最先端スコアを示し、15.185のベンチマークで報告された最良のスコアを著しく上回った。
- 参考スコア(独自算出の注目度): 36.34562469409364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel variant of GFlowNet, genetic-guided GFlowNet
(Genetic GFN), which integrates an iterative genetic search into GFlowNet.
Genetic search effectively guides the GFlowNet to high-rewarded regions,
addressing global over-exploration that results in training inefficiency and
exploring limited regions. In addition, training strategies, such as rank-based
replay training and unsupervised maximum likelihood pre-training, are further
introduced to improve the sample efficiency of Genetic GFN. The proposed method
shows a state-of-the-art score of 16.213, significantly outperforming the
reported best score in the benchmark of 15.185, in practical molecular
optimization (PMO), which is an official benchmark for sample-efficient
molecular optimization. Remarkably, ours exceeds all baselines, including
reinforcement learning, Bayesian optimization, generative models, GFlowNets,
and genetic algorithms, in 14 out of 23 tasks.
- Abstract(参考訳): 本稿では,遺伝子誘導型GFlowNet(Genetic GFN)の新たな変種として,反復的遺伝的検索をGFlowNetに統合したGFlowNetを提案する。
遺伝的検索は、GFlowNetを高次領域に効果的に誘導し、非効率なトレーニングと限られた領域の探索をもたらす世界的な過剰探索に対処する。
また、遺伝的GFNのサンプル効率を向上させるために、ランクベースリプレイトレーニングや教師なし最大極大事前トレーニングなどのトレーニング戦略も導入した。
提案手法は16.213の最先端スコアを示し、サンプル効率の分子最適化の公式ベンチマークであるpractical molecular optimization (pmo) において、15.185のベンチマークで報告された最高スコアを大幅に上回っている。
注目すべきは、強化学習、ベイズ最適化、生成モデル、GFlowNets、遺伝的アルゴリズムなど、すべてのベースラインを23タスク中14タスクで越えていることです。
関連論文リスト
- Quantum-inspired Reinforcement Learning for Synthesizable Drug Design [20.00111975801053]
本稿では, 量子インスパイアされた擬似アニール型ニューラルネットワークを用いた強化学習手法を用いて, 化学構造の離散空間をインテリジェントにナビゲートする手法を提案する。
具体的には、ポリシーニューラルネットワークを用いた決定論的REINFORCEアルゴリズムを用いて、状態遷移と局所探索を誘導する遷移確率を出力する。
提案手法は10Kのクエリ予算を持つPMOベンチマークフレームワークを用いて評価する。
論文 参考訳(メタデータ) (2024-09-13T20:43:16Z) - Optimal feature rescaling in machine learning based on neural networks [0.0]
遺伝的アルゴリズム(GA)により入力特徴の最適再スケーリング(OFR)を行う。
OFRは、トレーニングに使用される勾配ベースのアルゴリズムの条件付けを改善する入力空間を再設定する。
この手法は、実産業プロセスの結果をモデル化したFFNNでテストされている。
論文 参考訳(メタデータ) (2024-02-13T21:57:31Z) - Thompson sampling for improved exploration in GFlowNets [75.89693358516944]
生成フローネットワーク(Generative Flow Networks, GFlowNets)は、合成対象物上の分布からのサンプリングを、学習可能なアクションポリシーを用いたシーケンシャルな意思決定問題として扱う、アモータイズされた変分推論アルゴリズムである。
2つの領域において、TS-GFNは、過去の研究で使われたオフ・ポリティクス・サーベイ・ストラテジーよりも、探索を改善し、目標分布への収束を早くすることを示す。
論文 参考訳(メタデータ) (2023-06-30T14:19:44Z) - Genetically Modified Wolf Optimization with Stochastic Gradient Descent
for Optimising Deep Neural Networks [0.0]
本研究の目的は、人口ベースメタヒューリスティックアルゴリズムを用いて、ニューラルネットワーク(NN)重み付けを最適化するための代替アプローチを分析することである。
Grey Wolf (GWO) と Genetic Modified Algorithms (GA) のハイブリッドをグラディエント・Descent (SGD) と組み合わせて検討した。
このアルゴリズムは、高次元性の問題にも対処しながら、エクスプロイトと探索の組み合わせを可能にする。
論文 参考訳(メタデータ) (2023-01-21T13:22:09Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Direct Mutation and Crossover in Genetic Algorithms Applied to
Reinforcement Learning Tasks [0.9137554315375919]
本稿では、遺伝的アルゴリズム(GA)を用いて神経進化を適用し、最適な行動エージェントを生成するニューラルネットワークの重みを見つけることに焦点を当てる。
本稿では,データ効率と収束速度を初期実装と比較して改善する2つの新しい修正法を提案する。
論文 参考訳(メタデータ) (2022-01-13T07:19:28Z) - Improving RNA Secondary Structure Design using Deep Reinforcement
Learning [69.63971634605797]
本稿では,RNA配列設計に強化学習を適用した新しいベンチマークを提案する。このベンチマークでは,目的関数を配列の二次構造における自由エネルギーとして定義する。
本稿では,これらのアルゴリズムに対して行うアブレーション解析の結果と,バッチ間でのアルゴリズムの性能を示すグラフを示す。
論文 参考訳(メタデータ) (2021-11-05T02:54:06Z) - JANUS: Parallel Tempered Genetic Algorithm Guided by Deep Neural
Networks for Inverse Molecular Design [1.6114012813668934]
逆分子設計、すなわち特定の目的特性を持つ分子を設計することは最適化問題として考えられる。
ジャヌス (Janus) は、2つの個体群を伝播させ、もう1つは探索用、もう1つは搾取用の遺伝的アルゴリズムである。
Janusは、化学空間のサンプリングを増強するために能動的学習を通じて分子特性を近似するディープニューラルネットワークによって強化される。
論文 参考訳(メタデータ) (2021-06-07T23:41:34Z) - Variance-Reduced Off-Policy Memory-Efficient Policy Search [61.23789485979057]
政治政策の最適化は強化学習において難しい問題である。
オフポリシーアルゴリズムはメモリ効率が高く、オフポリシーサンプルから学ぶことができる。
論文 参考訳(メタデータ) (2020-09-14T16:22:46Z) - Guiding Deep Molecular Optimization with Genetic Exploration [79.50698140997726]
本稿では,深層ニューラルネットワーク(DNN)を訓練し,高次分子を生成する,遺伝的専門家誘導学習(GEGL)を提案する。
大規模な実験により、GEGLは最先端の手法よりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2020-07-04T05:01:26Z) - Implementation Matters in Deep Policy Gradients: A Case Study on PPO and
TRPO [90.90009491366273]
本稿では,2つの一般的なアルゴリズムのケーススタディにより,ディープポリシー勾配アルゴリズムにおけるアルゴリズムの進歩のルーツについて検討する。
具体的には,「コードレベルの最適化」の結果について検討する。
以上の結果から, (a) TRPOに対するPPOの累積報酬のほとんどを担っていることが示され, (b) RL メソッドの動作方法が根本的に変化していることが示唆された。
論文 参考訳(メタデータ) (2020-05-25T16:24:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。