論文の概要: Self-focusing virtual screening with active design space pruning
- arxiv url: http://arxiv.org/abs/2205.01753v1
- Date: Tue, 3 May 2022 19:47:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 15:09:08.482690
- Title: Self-focusing virtual screening with active design space pruning
- Title(参考訳): アクティブデザイン空間プルーニングによる自己焦点仮想スクリーニング
- Authors: David E. Graff, Matteo Aldeghi, Joseph A. Morrone, Kirk E. Jordan,
Edward O. Pyzer-Knapp and Connor W. Coley
- Abstract要約: 設計空間プルーニング(DSP)と呼ばれる手法を用いて,推論コストを軽減するモデル誘導最適化フレームワークの拡張を提案する。
DSPの様々な最適化タスクへの適用について検討し、ベースライン最適化に類似した性能を示しながら、オーバーヘッドコストの大幅な削減を観察する。
- 参考スコア(独自算出の注目度): 2.853824009425466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-throughput virtual screening is an indispensable technique utilized in
the discovery of small molecules. In cases where the library of molecules is
exceedingly large, the cost of an exhaustive virtual screen may be prohibitive.
Model-guided optimization has been employed to lower these costs through
dramatic increases in sample efficiency compared to random selection. However,
these techniques introduce new costs to the workflow through the surrogate
model training and inference steps. In this study, we propose an extension to
the framework of model-guided optimization that mitigates inferences costs
using a technique we refer to as design space pruning (DSP), which irreversibly
removes poor-performing candidates from consideration. We study the application
of DSP to a variety of optimization tasks and observe significant reductions in
overhead costs while exhibiting similar performance to the baseline
optimization. DSP represents an attractive extension of model-guided
optimization that can limit overhead costs in optimization settings where these
costs are non-negligible relative to objective costs, such as docking.
- Abstract(参考訳): 高スループット仮想スクリーニングは、小さな分子の発見に必要とされるテクニックである。
分子のライブラリーが極端に大きい場合、網羅的な仮想スクリーンのコストは禁じられるかもしれない。
モデル誘導最適化は、ランダム選択に比べてサンプル効率が劇的に向上し、これらのコストを下げるために用いられる。
しかしながら、これらのテクニックは、代理モデルトレーニングと推論ステップを通じてワークフローに新たなコストをもたらす。
本研究では,設計空間プルーニング (design space pruning, dsp) と呼ばれる手法を用いて, 予測コストの低減を図るモデル誘導最適化の枠組みの拡張を提案する。
DSPの様々な最適化タスクへの適用について検討し、ベースライン最適化に類似した性能を示しながら、オーバーヘッドコストの大幅な削減を観察する。
DSPは、ドッキングのような客観的なコストに対してこれらのコストが無視できない最適化設定におけるオーバーヘッドコストを制限することができるモデル誘導最適化の魅力的な拡張である。
関連論文リスト
- DiSK: Differentially Private Optimizer with Simplified Kalman Filter for Noise Reduction [57.83978915843095]
本稿では,微分プライベート勾配の性能を著しく向上する新しいフレームワークであるDiSKを紹介する。
大規模トレーニングの実用性を確保するため,Kalmanフィルタプロセスを簡素化し,メモリと計算要求を最小化する。
論文 参考訳(メタデータ) (2024-10-04T19:30:39Z) - Cost-Sensitive Multi-Fidelity Bayesian Optimization with Transfer of Learning Curve Extrapolation [55.75188191403343]
各ユーザが事前に定義した機能であるユーティリティを導入し,BOのコストと性能のトレードオフについて述べる。
このアルゴリズムをLCデータセット上で検証した結果,従来のマルチファイルBOや転送BOベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-05-28T07:38:39Z) - Evolve Cost-aware Acquisition Functions Using Large Language Models [11.209139558885035]
本稿では,大規模言語モデル (LLM) と進化計算 (EC) を統合する新しいフレームワークであるEvolCAFを紹介する。
設計されたコストアウェアAFは、過去のデータ、サロゲートモデル、予算の詳細から利用可能な情報の利用を最大化する。
EIpu と EI-cool の手法は, 人的専門家が設計した手法と比較して, 様々なタスクにまたがる顕著な効率性と一般化を示す。
論文 参考訳(メタデータ) (2024-04-25T12:19:18Z) - Landscape-Sketch-Step: An AI/ML-Based Metaheuristic for Surrogate
Optimization Problems [0.0]
コスト関数の広範囲な評価が高価で、アクセス不能、あるいは禁止されるシナリオにおいて、グローバルな最適化のための新しいアルゴリズムを導入する。
この手法はLandscape-Sketch-and-Step (LSS)と呼ばれ、機械学習、レプリカ最適化、強化学習技術を組み合わせたものである。
論文 参考訳(メタデータ) (2023-09-14T01:53:45Z) - Robustified Learning for Online Optimization with Memory Costs [28.737193318136725]
本稿では,高い平均性能とロバスト性を両立する,新しいエキスパート・ロバスト学習(ERL)手法を提案する。
任意の$lambdageq1$に対して、ERLはエキスパートアルゴリズムに対して$lambda$-competitive、最適なオフラインアルゴリズムに対して$lambdacdot C$-competitiveを達成することができる。
論文 参考訳(メタデータ) (2023-05-01T06:12:01Z) - Smoothed Online Convex Optimization Based on Discounted-Normal-Predictor [68.17855675511602]
円滑なオンライン凸最適化(SOCO)のためのオンライン予測戦略について検討する。
提案アルゴリズムは,各区間の切替コストで適応的後悔を最小限に抑えることができることを示す。
論文 参考訳(メタデータ) (2022-05-02T08:48:22Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Multi-Step Budgeted Bayesian Optimization with Unknown Evaluation Costs [28.254408148839644]
不均一な評価コストの設定に古典的な期待改善を一般化する非筋力的獲得関数を提案する。
我々の獲得関数は、様々な合成問題や実問題において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2021-11-12T02:18:26Z) - Few-shot Quality-Diversity Optimization [50.337225556491774]
品質多様性(QD)の最適化は、強化学習における知覚的最小値とスパース報酬を扱う上で効果的なツールであることが示されている。
本稿では,タスク分布の例から,パラメータ空間の最適化によって得られる経路の情報を利用して,未知の環境でQD手法を初期化する場合,数発の適応が可能であることを示す。
ロボット操作とナビゲーションベンチマークを用いて、疎密な報酬設定と密集した報酬設定の両方で実施された実験は、これらの環境でのQD最適化に必要な世代数を著しく削減することを示している。
論文 参考訳(メタデータ) (2021-09-14T17:12:20Z) - Cost-Efficient Online Hyperparameter Optimization [94.60924644778558]
実験の単一実行でヒトのエキスパートレベルのパフォーマンスに達するオンラインHPOアルゴリズムを提案します。
提案するオンラインhpoアルゴリズムは,実験の1回で人間のエキスパートレベルのパフォーマンスに到達できるが,通常のトレーニングに比べて計算オーバーヘッドは少ない。
論文 参考訳(メタデータ) (2021-01-17T04:55:30Z) - FlexiBO: A Decoupled Cost-Aware Multi-Objective Optimization Approach
for Deep Neural Networks [4.596221278839825]
我々は,FlexiBO(Flexible Multi-Objective Bayesian Optimization)と呼ばれる新しい多目的最適化アルゴリズムを開発し,この問題に対処する。
我々は、画像認識、自然言語処理(NLP)、音声からテキストへの翻訳のための7つの最先端DNN上でFlexiBOを評価する。
論文 参考訳(メタデータ) (2020-01-18T03:26:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。