論文の概要: ParaVS: A Simple, Fast, Efficient and Flexible Graph Neural Network
Framework for Structure-Based Virtual Screening
- arxiv url: http://arxiv.org/abs/2102.06086v1
- Date: Mon, 8 Feb 2021 08:24:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 15:27:39.994653
- Title: ParaVS: A Simple, Fast, Efficient and Flexible Graph Neural Network
Framework for Structure-Based Virtual Screening
- Title(参考訳): ParaVS:構造ベースの仮想スクリーニングのためのシンプルで高速で効率的なグラフニューラルネットワークフレームワーク
- Authors: Junfeng Wu, Dawei Leng, Lurong Pan
- Abstract要約: ドッキング処理の計算コストを回避できるドッキングベースSBVS法とディープラーニング非ドッキングベース手法を導入する。
ParaVS-NDの推論速度は約3.6e5分子/コア時間であり、従来のドッキングベースの手法は約20であり、約16000倍高速である。
- 参考スコア(独自算出の注目度): 2.5137859989323537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Structure-based virtual screening (SBVS) is a promising in silico technique
that integrates computational methods into drug design. An extensively used
method in SBVS is molecular docking. However, the docking process can hardly be
computationally efficient and accurate simultaneously because classic mechanics
scoring function is used to approximate, but hardly reach, the quantum
mechanics precision in this method. In order to reduce the computational cost
of the protein-ligand scoring process and use data driven approach to boost the
scoring function accuracy, we introduce a docking-based SBVS method and,
furthermore, a deep learning non-docking-based method that is able to avoid the
computational cost of the docking process. Then, we try to integrate these two
methods into an easy-to-use framework, ParaVS, that provides both choices for
researchers. Graph neural network (GNN) is employed in ParaVS, and we explained
how our in-house GNN works and how to model ligands and molecular targets. To
verify our approaches, cross validation experiments are done on two datasets,
an open dataset Directory of Useful Decoys: Enhanced (DUD.E) and an in-house
proprietary dataset without computational generated artificial decoys
(NoDecoy). On DUD.E we achieved a state-of-the-art AUC of 0.981 and a
state-of-the-art enrichment factor at 2% of 36.2; on NoDecoy we achieved an AUC
of 0.974. We further finish inference of an open database, Enamine REAL
Database (RDB), that comprises over 1.36 billion molecules in 4050 core-hours
using our ParaVS non-docking method (ParaVS-ND). The inference speed of
ParaVS-ND is about 3.6e5 molecule / core-hour, while this number of a
conventional docking-based method is around 20, which is about 16000 times
faster. The experiments indicate that ParaVS is accurate, computationally
efficient and can be generalized to different molecular.
- Abstract(参考訳): 構造ベースの仮想スクリーニング(SBVS)は、計算手法を薬物設計に統合する有望なシリコ技術である。
SBVSで広く使われている方法は分子ドッキングである。
しかし、古典力学スコアリング関数を近似するために使用するため、ドッキング過程は計算効率と精度を同時に行うことは困難であるが、この方法では量子力学の精度が向上する。
タンパク質リガンドスコアリングプロセスの計算コストを削減し,データ駆動手法を用いてスコアリング関数の精度を向上させるため,ドッキングベースのSBVS法,ドッキングプロセスの計算コストを回避できるディープラーニング非ドッキング方式を導入する。
そして、これらの2つのメソッドを、研究者に両方の選択肢を提供する、使い易いフレームワークであるParaVSに統合しようとします。
グラフニューラルネットワーク(GNN)はParaVSで採用されており、私たちの社内GNNがどのように機能し、リガンドや分子標的をモデル化するかを説明しました。
我々のアプローチを検証するために、クロス検証実験は、2つのデータセット、オープンデータセットRe Directory of Useful Decoys: Enhanced (DUD.E)と、計算生成された人工デコイ(NoDecoy)を使わずに社内独自のデータセットである。
DUD.Eでは0.981の最先端のAUCと36.2の最先端の濃縮係数を達成し,NoDecoyでは0.974のAUCを達成しました。
さらに、ParaVSノンドッキング法(ParaVS-ND)を用いて、4050コア時間に136億以上の分子からなるオープンデータベース Enamine REAL Database (RDB) の推論を終了する。
ParaVS-NDの推論速度は約3.6e5分子/コア時間であり、従来のドッキングベースの手法では約20であり、これは約16000倍高速である。
この実験は、ParaVSが正確で計算効率が高く、異なる分子に一般化できることを示しています。
関連論文リスト
- A Specialized Semismooth Newton Method for Kernel-Based Optimal
Transport [92.96250725599958]
カーネルベース最適輸送(OT)推定器は、サンプルからOT問題に対処するための代替的機能的推定手順を提供する。
SSN法は, 標準正規性条件下でのグローバル収束率$O (1/sqrtk)$, 局所二次収束率を達成できることを示す。
論文 参考訳(メタデータ) (2023-10-21T18:48:45Z) - DSDP: A Blind Docking Strategy Accelerated by GPUs [6.221048348194304]
我々は,従来の学習手法と機械学習手法の両方の利点を生かし,ブラインドドッキングの性能を向上させるために,Deep Site and Docking Pose (DSDP) を提案する。
DSDPは、2つのトップ1成功率 (RMSD 2 AA) に達する。
DUD-EデータセットとEquiBind, TankBind, DiffDockで使用される時間分割PDBBindデータセットのパフォーマンスも有効である。
論文 参考訳(メタデータ) (2023-03-16T07:00:21Z) - Deep Surrogate Docking: Accelerating Automated Drug Discovery with Graph
Neural Networks [0.9785311158871759]
本稿では,ディープラーニングに基づくサロゲートモデリングを適用し,ドッキングプロセスを大幅に高速化するフレームワークであるDeep Surrogate Docking(DSD)を紹介する。
我々は、DSDワークフローとFiLMv2アーキテクチャを組み合わせることで、分子スクリーニングにおける9.496倍の高速化と3%のリコールエラー率が得られることを示した。
論文 参考訳(メタデータ) (2022-11-04T19:36:02Z) - TCT: Convexifying Federated Learning using Bootstrapped Neural Tangent
Kernels [141.29156234353133]
最先端の凸学習手法は、クライアントが異なるデータ分布を持つ場合、集中型よりもはるかにパフォーマンスが劣る。
我々は、この格差は、非NISTityが提示した課題に大きく起因していることを示す。
本稿では,Train-Convexify Neural Network (TCT) 手法を提案する。
論文 参考訳(メタデータ) (2022-07-13T16:58:22Z) - SS-GNN: A Simple-Structured Graph Neural Network for Affinity Prediction [8.508602451200352]
本稿では,ドラッグ・ターゲット結合親和性(DTBA)を正確に予測するために,SS-GNNと呼ばれる簡易構造グラフニューラルネットワーク(GNN)モデルを提案する。
タンパク質-リガンド相互作用を表すために、距離閾値に基づいて単一の非方向グラフを構築することにより、グラフデータのスケールを大幅に削減する。
典型的なタンパク質-リガンド複合体では、親和性予測は0.2msしかかからない。
論文 参考訳(メタデータ) (2022-05-25T04:47:13Z) - Active-learning-based non-intrusive Model Order Reduction [0.0]
本研究では,2つの新奇性を持つ新しいアクティブラーニング手法を提案する。
提案手法の新たな考え方は,システム状態からのワンタイムステップスナップショットの利用である。
また,確率的略正(PAC)学習に基づくユースケース独立型検証戦略も導入する。
論文 参考訳(メタデータ) (2022-04-08T22:33:51Z) - EAutoDet: Efficient Architecture Search for Object Detection [110.99532343155073]
EAutoDetフレームワークは、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを検出できる。
本稿では,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSで40.1 mAP、49.2 mAP、41.3 FPSをCOCOテストデブセットで達成している。
論文 参考訳(メタデータ) (2022-03-21T05:56:12Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - FNAS: Uncertainty-Aware Fast Neural Architecture Search [54.49650267859032]
強化学習(Reinforcement Learning, RL)に基づくニューラルアーキテクチャサーチ(NAS)は一般的に、収束性の向上を保証するが、巨大な計算資源の要求に悩まされる。
NASにおけるロールアウトプロセスとRLプロセスの収束を加速する汎用パイプラインを提案する。
Mobile Neural Architecture Search (MNAS)サーチスペースの実験では、提案するFast Neural Architecture Search (FNAS)が標準のRLベースのNASプロセスを10倍高速化することを示した。
論文 参考訳(メタデータ) (2021-05-25T06:32:52Z) - Inception Convolution with Efficient Dilation Search [121.41030859447487]
拡散畳み込みは、効果的な受容場を制御し、オブジェクトの大規模な分散を処理するための標準的な畳み込みニューラルネットワークの重要な変異体である。
そこで我々は,異なる軸,チャネル,層間の独立な拡散を有する拡張畳み込みの新たな変異体,すなわち開始(拡張)畳み込みを提案する。
本稿では,データに複雑なインセプション・コンボリューションを適合させる実用的な手法を探索し,統計的最適化に基づく簡易かつ効果的な拡張探索アルゴリズム(EDO)を開発した。
論文 参考訳(メタデータ) (2020-12-25T14:58:35Z) - Passive Batch Injection Training Technique: Boosting Network Performance
by Injecting Mini-Batches from a different Data Distribution [39.8046809855363]
この研究は、元の入力データとは異なる分布から追加のデータを利用するディープニューラルネットワークの新しいトレーニング手法を提案する。
私たちの知る限りでは、畳み込みニューラルネットワーク(CNN)のトレーニングを支援するために、異なるデータ分散を利用する最初の研究である。
論文 参考訳(メタデータ) (2020-06-08T08:17:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。