論文の概要: Quantifying sources of uncertainty in drug discovery predictions with
probabilistic models
- arxiv url: http://arxiv.org/abs/2105.09474v1
- Date: Tue, 18 May 2021 18:54:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 01:53:30.808191
- Title: Quantifying sources of uncertainty in drug discovery predictions with
probabilistic models
- Title(参考訳): 確率論的モデルによる薬物発見予測の不確実性の定量化
- Authors: Stanley E. Lazic, Dominic P. Williams
- Abstract要約: 予測の不確実性を知ることは、高価な投資決定を行い、患者の安全が最重要である場合に重要である。
薬物発見における機械学習(ML)モデルは、通常、単一の最良の見積もりのみを提供し、不確実性のすべての源を無視します。
確率的予測モデル(PPM)は、データとモデルの両方に不確実性を取り入れ、予測値の分布を返すことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Knowing the uncertainty in a prediction is critical when making expensive
investment decisions and when patient safety is paramount, but machine learning
(ML) models in drug discovery typically provide only a single best estimate and
ignore all sources of uncertainty. Predictions from these models may therefore
be over-confident, which can put patients at risk and waste resources when
compounds that are destined to fail are further developed. Probabilistic
predictive models (PPMs) can incorporate uncertainty in both the data and
model, and return a distribution of predicted values that represents the
uncertainty in the prediction. PPMs not only let users know when predictions
are uncertain, but the intuitive output from these models makes communicating
risk easier and decision making better. Many popular machine learning methods
have a PPM or Bayesian analogue, making PPMs easy to fit into current
workflows. We use toxicity prediction as a running example, but the same
principles apply for all prediction models used in drug discovery. The
consequences of ignoring uncertainty and how PPMs account for uncertainty are
also described. We aim to make the discussion accessible to a broad
non-mathematical audience. Equations are provided to make ideas concrete for
mathematical readers (but can be skipped without loss of understanding) and
code is available for computational researchers
(https://github.com/stanlazic/ML_uncertainty_quantification).
- Abstract(参考訳): 予測の不確実性を知ることは、高価な投資判断を行う場合や患者の安全性が最重要となる場合に重要であるが、薬物発見における機械学習(ml)モデルは、一般的には単一の最良の見積もりを提供し、すべての不確実性源を無視する。
したがって、これらのモデルからの予測は自信過剰であり、失敗する運命にある化合物がさらに開発されると、患者をリスクと廃棄物にすることができる。
確率的予測モデル(PPM)は、データとモデルの両方に不確実性を取り入れ、予測の不確実性を表す予測値の分布を返す。
PPMは、いつ予測が不確実であるかをユーザーに知らせるだけでなく、これらのモデルからの直感的なアウトプットによって、コミュニケーションのリスクと意思決定がより簡単になる。
多くの一般的な機械学習メソッドは、PPMまたはベイジアンアナログを持ち、PPMを現在のワークフローに簡単に適合させることができる。
我々は毒性予測を例に挙げるが、薬物発見に使用される全ての予測モデルにも同様の原理を適用する。
不確実性を無視した結果や、不確実性の原因となるPPMについても述べられている。
我々は議論を広く非数学的な聴衆に公開することを目指している。
方程式は数学的読者向けに具体化するために提供され(しかし、理解を失うことなくスキップできる)、計算研究者はコードを利用できる(https://github.com/stanlazic/ml_uncertainty_quantification)。
関連論文リスト
- Evaluation of uncertainty estimations for Gaussian process regression based machine learning interatomic potentials [0.0]
機械学習の原子間ポテンシャルの不確実性推定は、導入した追加モデルエラーの定量化に不可欠である。
我々は、クーロンおよびSOAP表現を持つGPRモデルを、ポテンシャルエネルギー表面と分子の励起エネルギーを予測する入力として考える。
我々は,GPRの分散とアンサンブルに基づく不確かさが誤差とどのように関係しているか,また,固定された構成空間から最も不確実なサンプルを選択することによりモデル性能が向上するかを評価する。
論文 参考訳(メタデータ) (2024-10-27T10:06:09Z) - Conservative Predictions on Noisy Financial Data [6.300716661852326]
金融市場の価格変動は、非常に騒々しいことがよく知られている。
従来のルール学習技術は、高精度なルールのみを求め、先行者が適用されない予測を控えるものだった。
我々は、モデルが不確実であるデータポイントの予測を控える、同様のアプローチを適用する。
論文 参考訳(メタデータ) (2023-10-18T09:14:19Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Predictive Multiplicity in Probabilistic Classification [25.111463701666864]
確率的分類における予測的乗数性を測定するための枠組みを提案する。
実世界のタスクにおける予測多重度の発生頻度と頻度を実証する。
その結果,予測多重度をより広範囲に報告する必要性が強調された。
論文 参考訳(メタデータ) (2022-06-02T16:25:29Z) - Uncertainty estimation of pedestrian future trajectory using Bayesian
approximation [137.00426219455116]
動的トラフィックシナリオでは、決定論的予測に基づく計画は信頼できない。
著者らは、決定論的アプローチが捉えられない近似を用いて予測中の不確実性を定量化する。
将来の状態の不確実性に対する降雨重量と長期予測の影響について検討した。
論文 参考訳(メタデータ) (2022-05-04T04:23:38Z) - Robust uncertainty estimates with out-of-distribution pseudo-inputs
training [0.0]
我々は、信頼性のあるデータを与えられていない不確実性予測器を明示的に訓練することを提案する。
データ無しでは訓練できないので、入力空間の情報的低密度領域において擬似入力を生成するメカニズムを提供する。
総合的な評価により、様々なタスクにおける最先端性能を維持しながら、不確実性の頑健かつ解釈可能な予測が得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T17:15:07Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - When in Doubt: Neural Non-Parametric Uncertainty Quantification for
Epidemic Forecasting [70.54920804222031]
既存の予測モデルは不確実な定量化を無視し、誤校正予測をもたらす。
不確実性を考慮した時系列予測のためのディープニューラルネットワークの最近の研究にもいくつかの制限がある。
本稿では,予測タスクを確率的生成過程としてモデル化し,EPIFNPと呼ばれる機能的ニューラルプロセスモデルを提案する。
論文 参考訳(メタデータ) (2021-06-07T18:31:47Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z) - Estimating predictive uncertainty for rumour verification models [24.470032028639107]
我々は,不確実性推定を用いてモデル予測が誤っている可能性が示唆された。
本稿では,不確実性に基づくインスタンス拒絶の2つの方法を提案する。
論文 参考訳(メタデータ) (2020-05-14T17:42:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。