論文の概要: Augmented Memory: Capitalizing on Experience Replay to Accelerate De
Novo Molecular Design
- arxiv url: http://arxiv.org/abs/2305.16160v1
- Date: Wed, 10 May 2023 14:00:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-28 04:31:35.398741
- Title: Augmented Memory: Capitalizing on Experience Replay to Accelerate De
Novo Molecular Design
- Title(参考訳): augmented memory:experience replayを活かしてde novo分子設計を加速する
- Authors: Jeff Guo, Philippe Schwaller
- Abstract要約: 分子生成モデルは、最小限のオラクル評価の下で望ましい目的を満たすことを学ばなければならない。
本稿では,データ拡張と体験再生を組み合わせたAugmented Memoryという新しいアルゴリズムを提案する。
オラクルコールから得られたスコアを再利用してモデルを複数回更新できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sample efficiency is a fundamental challenge in de novo molecular design.
Ideally, molecular generative models should learn to satisfy a desired
objective under minimal oracle evaluations (computational prediction or wet-lab
experiment). This problem becomes more apparent when using oracles that can
provide increased predictive accuracy but impose a significant cost.
Consequently, these oracles cannot be directly optimized under a practical
budget. Molecular generative models have shown remarkable sample efficiency
when coupled with reinforcement learning, as demonstrated in the Practical
Molecular Optimization (PMO) benchmark. Here, we propose a novel algorithm
called Augmented Memory that combines data augmentation with experience replay.
We show that scores obtained from oracle calls can be reused to update the
model multiple times. We compare Augmented Memory to previously proposed
algorithms and show significantly enhanced sample efficiency in an exploitation
task and a drug discovery case study requiring both exploration and
exploitation. Our method achieves a new state-of-the-art in the PMO benchmark
which enforces a computational budget, outperforming the previous best
performing method on 19/23 tasks.
- Abstract(参考訳): サンプル効率は、de novo分子設計における根本的な課題である。
理想的には、分子生成モデルは、最小のオラクル評価(計算予測またはウェットラブ実験)の下で、望ましい目的を満たすために学習すべきである。
この問題は、予測精度が向上するが、かなりのコストを課すオラクルを使用すると明らかになる。
そのため、実際の予算で直接最適化することはできない。
分子生成モデルでは、実用的な分子最適化(pmo)ベンチマークで示されているように、強化学習と組み合わせることで顕著なサンプル効率を示した。
本稿では,データ拡張と体験再生を組み合わせたAugmented Memoryという新しいアルゴリズムを提案する。
オラクルコールから得られたスコアを再利用してモデルを複数回更新できることを示す。
提案するアルゴリズムと拡張メモリを比較し,エクスプロイションタスクと探索とエクスプロイトの両方を必要とする薬物発見事例スタディにおいて,サンプル効率が著しく向上したことを示す。
提案手法はPMOベンチマークにおいて,計算予算を強制し,従来の19/23タスクの最高性能を達成している。
関連論文リスト
- Adv-KD: Adversarial Knowledge Distillation for Faster Diffusion Sampling [2.91204440475204]
拡散確率モデル(DPM)は、深層生成モデルの強力なクラスとして登場した。
それらは、サンプル生成中にシーケンシャルなデノイングステップに依存している。
モデルアーキテクチャに直接位相を分解する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-31T08:19:44Z) - Saturn: Sample-efficient Generative Molecular Design using Memory Manipulation [0.4037357056611557]
創薬のための分子設計は、最近実験的な検証の波に到達した。
下流の成功の最も重要な要因は、シリコオラクルが所望の端点とよく相関しているかどうかである。
本稿では,Augmented Memoryアルゴリズムを活用し,生成分子設計におけるMambaアーキテクチャの最初の応用例を示す。
論文 参考訳(メタデータ) (2024-05-27T11:37:36Z) - Retrosynthesis prediction enhanced by in-silico reaction data
augmentation [66.5643280109899]
RetroWISEは,実データから推定されるベースモデルを用いて,シリコン内反応の生成と増大を行うフレームワークである。
3つのベンチマークデータセットで、RetroWISEは最先端モデルに対して最高の全体的なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-01-31T07:40:37Z) - Beam Enumeration: Probabilistic Explainability For Sample Efficient
Self-conditioned Molecular Design [0.4769602527256662]
生成分子設計は概念実証から現実の応用へと移行してきた。
説明可能性とサンプル効率の主な課題は、生成設計を強化する機会である。
ビームは一般に言語に基づく分子生成モデルに適用できる。
論文 参考訳(メタデータ) (2023-09-25T08:43:13Z) - Value function estimation using conditional diffusion models for control [62.27184818047923]
拡散値関数(DVF)と呼ばれる単純なアルゴリズムを提案する。
拡散モデルを用いて環境-ロボット相互作用の連成多段階モデルを学ぶ。
本稿では,DVFを用いて複数のコントローラの状態を効率よく把握する方法を示す。
論文 参考訳(メタデータ) (2023-06-09T18:40:55Z) - Two-step hyperparameter optimization method: Accelerating hyperparameter
search by using a fraction of a training dataset [0.15420205433587747]
計算要求と待ち時間を抑制するための戦略的ソリューションとして,2段階のHPO法を提案する。
我々は最近の2段階HPO法のエアロゾル活性化のためのニューラルネットワークエミュレータ開発への応用について述べる。
論文 参考訳(メタデータ) (2023-02-08T02:38:26Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Missingness Augmentation: A General Approach for Improving Generative
Imputation Models [20.245637164975594]
生成的計算モデルのためのMisA(MisA)と呼ばれる新しいデータ拡張手法を提案する。
一般的な拡張技術として、MisAは生成的計算フレームワークに容易に統合できる。
実験結果から、最近提案された多くの生成的計算モデルの性能は、MisAにより大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-07-31T08:51:46Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - Models, Pixels, and Rewards: Evaluating Design Trade-offs in Visual
Model-Based Reinforcement Learning [109.74041512359476]
視覚的MBRLアルゴリズムにおける予測モデルの設計決定について検討する。
潜在空間の使用など、しばしば重要と見なされる設計上の決定は、タスクのパフォーマンスにはほとんど影響しないことが分かりました。
我々は,この現象が探索とどのように関係しているか,および標準ベンチマークにおける下位スコーリングモデルのいくつかが,同じトレーニングデータでトレーニングされた場合のベストパフォーマンスモデルと同等の性能を発揮するかを示す。
論文 参考訳(メタデータ) (2020-12-08T18:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。