論文の概要: Protein-Ligand Docking Surrogate Models: A SARS-CoV-2 Benchmark for Deep
Learning Accelerated Virtual Screening
- arxiv url: http://arxiv.org/abs/2106.07036v1
- Date: Sun, 13 Jun 2021 16:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 09:06:29.974613
- Title: Protein-Ligand Docking Surrogate Models: A SARS-CoV-2 Benchmark for Deep
Learning Accelerated Virtual Screening
- Title(参考訳): タンパク質-リガンドドッキングサロゲートモデル:深層学習型仮想スクリーニングのためのSARS-CoV-2ベンチマーク
- Authors: Austin Clyde, Thomas Brettin, Alex Partin, Hyunseung Yoo, Yadu Babuji,
Ben Blaiszik, Andre Merzky, Matteo Turilli, Shantenu Jha, Arvind Ramanathan,
Rick Stevens
- Abstract要約: 代理ドッキングモデルが標準ドッキングプロトコルよりも6桁のスループットを持つことを示す。
本研究では,1日で10億個の分子に対して各ターゲットを動作させることにより,高速サロゲートモデルのパワーを実証する。
我々の解析では、ドッキングパラダイムの下でより多くの分子をスクリーニングするには、計算速度よりもモデル精度から別の桁のスピードアップを導き出さなければならないと説明しています。
- 参考スコア(独自算出の注目度): 0.2561613071031438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a benchmark to study surrogate model accuracy for protein-ligand
docking. We share a dataset consisting of 200 million 3D complex structures and
2D structure scores across a consistent set of 13 million ``in-stock''
molecules over 15 receptors, or binding sites, across the SARS-CoV-2 proteome.
Our work shows surrogate docking models have six orders of magnitude more
throughput than standard docking protocols on the same supercomputer node
types. We demonstrate the power of high-speed surrogate models by running each
target against 1 billion molecules in under a day (50k predictions per GPU
seconds). We showcase a workflow for docking utilizing surrogate ML models as a
pre-filter. Our workflow is ten times faster at screening a library of
compounds than the standard technique, with an error rate less than 0.01\% of
detecting the underlying best scoring 0.1\% of compounds. Our analysis of the
speedup explains that to screen more molecules under a docking paradigm,
another order of magnitude speedup must come from model accuracy rather than
computing speed (which, if increased, will not anymore alter our throughput to
screen molecules). We believe this is strong evidence for the community to
begin focusing on improving the accuracy of surrogate models to improve the
ability to screen massive compound libraries 100x or even 1000x faster than
current techniques.
- Abstract(参考訳): タンパク質リガンドドドッキングにおけるサロゲートモデル精度の検討のためのベンチマークを提案する。
我々は、SARS-CoV-2プロテオーム全体にわたって、15個の受容体または結合部位に1300万個の 'in-stock'' 分子からなる一貫したセットで、2億の3D構造と2D構造スコアからなるデータセットを共有している。
我々の研究によると、サロゲートドッキングモデルは、同じスーパーコンピュータノードタイプの標準ドッキングプロトコルよりも6桁高いスループットを持つ。
1日で10億分子(gpu秒あたり50kの予測)に対して各ターゲットを実行することで、高速サーロゲートモデルのパワーを実証する。
本稿では,サロゲートMLモデルをプレフィルタとして利用するドッキングワークフローを紹介する。
我々のワークフローは、標準技術よりも10倍早く化合物のライブラリをスクリーニングし、基礎となるベストスコア0.1倍の化合物を検出するエラー率は0.01倍未満である。
スピードアップの分析では、ドッキングパラダイムの下でより多くの分子をスクリーンに表示するためには、計算速度ではなくモデルの精度から、もう1桁のスピードアップが生まれなければならないと説明されています。
これは、サロゲートモデルの精度の向上に注力し、大量の複合ライブラリを現在の技術より100倍、あるいは1000倍高速にスクリーニングする能力を向上させるための強力な証拠であると考えています。
関連論文リスト
- Dockformer: A transformer-based molecular docking paradigm for large-scale virtual screening [29.886873241333433]
複合ライブラリのサイズが大きくなるにつれて、従来のドッキングモデルの複雑さが増す。
ディープラーニングアルゴリズムは、ドッキングプロセスのスピードを高めるために、データ駆動リサーチと開発モデルを提供することができる。
本研究では,Dockformerという,ディープラーニングに基づくドッキング手法を紹介する。
論文 参考訳(メタデータ) (2024-11-11T06:25:13Z) - RapidDock: Unlocking Proteome-scale Molecular Docking [0.0]
現在の分子ドッキングツールは、関連するすべてのタンパク質に対して潜在的な薬物をスクリーニングするには遅すぎる。
我々は、ブラインド分子ドッキングのための効率的なトランスフォーマーベースモデルであるRapidDockを紹介する。
RapidDockは、精度を損なうことなく、既存のメソッドに対して少なくとも100倍の速度で優位に立つ。
論文 参考訳(メタデータ) (2024-10-16T09:28:59Z) - Foundation Models for Structural Health Monitoring [17.37816294594306]
本稿では,トランスフォーマーニューラルネットワークをMasked Auto-Encoderアーキテクチャを用いて,構造的健康モニタリングのための基礎モデルとして初めて利用することを提案する。
自己教師付き事前学習を通じて、複数の大規模データセットから一般化可能な表現を学習する能力を実証する。
本研究は,3つの運用用インダクトのデータを用いた基礎モデルの有効性を示す。
論文 参考訳(メタデータ) (2024-04-03T13:32:44Z) - Small Effect Sizes in Malware Detection? Make Harder Train/Test Splits! [51.668411293817464]
業界関係者は、モデルが数億台のマシンにデプロイされているため、マルウェア検出精度の小さな改善に気を配っている。
学術研究はしばしば1万のサンプルの順序で公開データセットに制限される。
利用可能なサンプルのプールから難易度ベンチマークを生成するためのアプローチを考案する。
論文 参考訳(メタデータ) (2023-12-25T21:25:55Z) - Semi-Autoregressive Streaming ASR With Label Context [70.76222767090638]
本稿では,先行ブロックで出力されたラベルを付加コンテキストとして組み込んだストリーミング「半自己回帰型」ASRモデルを提案する。
実験の結果,既存のストリーミングNARモデルではTedlium2が19%,Librispeech-100が16%/8%,Switchboard(SWB)/Callhome(CH)テストセットが19%/8%であった。
論文 参考訳(メタデータ) (2023-09-19T20:55:58Z) - Publishing Efficient On-device Models Increases Adversarial
Vulnerability [58.6975494957865]
本稿では,大規模モデルのオンデバイス版を公開する際のセキュリティ上の考慮事項について検討する。
まず、敵がデバイス上のモデルを悪用し、大きなモデルを攻撃しやすくすることを示す。
次に、フルスケールと効率的なモデルとの類似性が増加するにつれて、脆弱性が増加することを示す。
論文 参考訳(メタデータ) (2022-12-28T05:05:58Z) - Deep Surrogate Docking: Accelerating Automated Drug Discovery with Graph
Neural Networks [0.9785311158871759]
本稿では,ディープラーニングに基づくサロゲートモデリングを適用し,ドッキングプロセスを大幅に高速化するフレームワークであるDeep Surrogate Docking(DSD)を紹介する。
我々は、DSDワークフローとFiLMv2アーキテクチャを組み合わせることで、分子スクリーニングにおける9.496倍の高速化と3%のリコールエラー率が得られることを示した。
論文 参考訳(メタデータ) (2022-11-04T19:36:02Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - ParaVS: A Simple, Fast, Efficient and Flexible Graph Neural Network
Framework for Structure-Based Virtual Screening [2.5137859989323537]
ドッキング処理の計算コストを回避できるドッキングベースSBVS法とディープラーニング非ドッキングベース手法を導入する。
ParaVS-NDの推論速度は約3.6e5分子/コア時間であり、従来のドッキングベースの手法は約20であり、約16000倍高速である。
論文 参考訳(メタデータ) (2021-02-08T08:24:05Z) - Fast, Accurate, and Simple Models for Tabular Data via Augmented
Distillation [97.42894942391575]
本研究では、FAST-DADを用いて、任意の複雑なアンサンブル予測を、高木、無作為林、深層ネットワークなどの個々のモデルに抽出する。
我々の個々の蒸留モデルは、H2O/AutoSklearnのようなAutoMLツールが生成するアンサンブル予測よりも10倍高速で精度が高い。
論文 参考訳(メタデータ) (2020-06-25T09:57:47Z) - SUOD: Accelerating Large-Scale Unsupervised Heterogeneous Outlier
Detection [63.253850875265115]
外乱検出(OD)は、一般的なサンプルから異常物体を識別するための機械学習(ML)タスクである。
そこで我々は,SUODと呼ばれるモジュール型加速度システムを提案する。
論文 参考訳(メタデータ) (2020-03-11T00:22:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。