論文の概要: Driving down Poisson error can offset classification error in clinical tasks
- arxiv url: http://arxiv.org/abs/2405.06065v1
- Date: Thu, 9 May 2024 19:23:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-13 17:26:24.682894
- Title: Driving down Poisson error can offset classification error in clinical tasks
- Title(参考訳): Poissonエラーの運転は、臨床タスクの分類エラーを相殺できる
- Authors: Charles B. Delahunt, Courosh Mehanian, Matthew P. Horning,
- Abstract要約: 人間は完璧な精度でも、まれな出来事のポアソン統計から重大な誤りを犯すことがある。
MLシステムは、オブジェクトレベルでは正確ではないかもしれないが、より多くの血液を調べるオプションもあるかもしれない。
- 参考スコア(独自算出の注目度): 0.40964539027092906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical machine learning algorithms are typically evaluated based on accuracy vs. a clinician-defined ground truth, a reasonable choice because trained clinicians are usually better classifiers than ML models. However, this metric does not fully reflect the clinical task: it neglects the fact that humans, even with perfect accuracy, are subject to sometimes significant error from the Poisson statistics of rare events, because clinical protocols often specify that a relatively small sample be examined. For example, to quantitate malaria on a thin blood film a clinician examines only 2000 red blood cells (0.0004 uL), which can yield large variation in actual number of parasites present due to Poisson variability, so that a perfect human's count can differ substantially from the true average load. In contrast, ML systems may be less accurate on an object level, but they also may have the option to examine more blood (e.g. 0.1 uL, or 250x). So while their accuracy as to parasite count in a particular sample is lower, the Poisson variability of their estimate is also lower due to larger sample size. Crucially, when an ML system moves out of the proof-of-concept stage and targets deployment in a clinical setting, its performance must match current standard of care. To this end, it may have the option to offset its lower accuracy by increasing sample size to reduce Poisson error, and thus attain the same net clinical performance as a perfectly accurate human limited by smaller sample size. In this paper, we analyze the mathematics of the trade-off between these two types of error, to enable teams developing ML systems to leverage a relative strength (larger sample sizes) to offset a relative weakness (classification accuracy). We illustrate the methods with two concrete examples: diagnosis and quantitation of malaria on blood films.
- Abstract(参考訳): 医療機械学習アルゴリズムは、一般的に、精度に基づいて評価されるが、臨床医が定義した真実よりも、訓練された臨床医がMLモデルよりも優れた分類器であるため、合理的な選択である。
しかしながら、この測定基準は臨床の課題を完全に反映していない:ヒトが完全な正確性を持っても、稀な事象のポアソン統計から重大なエラーを受けることがあるという事実を無視する。
例えば、薄い血液膜上でマラリアを定量化するために、臨床医は2000個の赤血球(0.0004 uL)しか検査せず、ポアソンの変動によって現生の寄生虫の数が大きく変動するため、完全なヒトの数は真の平均負荷と大きく異なる。
対照的に、MLシステムはオブジェクトレベルでは正確ではないかもしれないが、より多くの血液(例えば0.1uL、250x)を調べるオプションもある。
したがって, 特定の試料中の寄生虫数に対する精度は低いが, 試料サイズが大きいため, 推定値のポアソン変量率も低い。
重要なことは、MLシステムが概念実証段階から出て、臨床環境でのデプロイメントを目標にする場合、そのパフォーマンスは現在のケア基準と一致しなければなりません。
この目的のために、ポアソン誤差を低減するためにサンプルサイズを増大させることにより、その低い精度を相殺するオプションがあり、したがって、より小さいサンプルサイズで制限された完全正確なヒトと同一の臨床性能を得ることができる。
本稿では,これらの2種類のエラー間のトレードオフの数学を解析し,MLシステムを開発するチームが相対的な強度(より大きなサンプルサイズ)を活用して相対的な弱点(分類精度)を相殺できるようにする。
本手法は,血液膜上のマラリアの診断と定量化の2つの具体例で説明する。
関連論文リスト
- Mixed-Integer Projections for Automated Data Correction of EMRs Improve
Predictions of Sepsis among Hospitalized Patients [7.639610349097473]
本稿では,領域制約として臨床専門知識をシームレスに統合する革新的プロジェクションに基づく手法を提案する。
我々は、患者データの健全な範囲を規定する制約から補正されたデータの距離を測定する。
AUROCは0.865で、精度は0.922で、従来のMLモデルを上回る。
論文 参考訳(メタデータ) (2023-08-21T15:14:49Z) - High-dimensional Measurement Error Models for Lipschitz Loss [2.6415509201394283]
リプシッツ損失関数のクラスに対する高次元計測誤差モデルを開発する。
我々の推定器は、適切な実現可能な集合に属するすべての推定器の中で、$L_1$ノルムを最小化するように設計されている。
有限標本統計誤差境界と符号の整合性の観点から理論的な保証を導出する。
論文 参考訳(メタデータ) (2022-10-26T20:06:05Z) - Building Robust Machine Learning Models for Small Chemical Science Data:
The Case of Shear Viscosity [3.4761212729163313]
我々はLennard-Jones (LJ)流体のせん断粘度を予測するために、いくつかの機械学習モデルを訓練する。
具体的には,モデル選択,性能評価,不確実性定量化に関する課題について検討した。
論文 参考訳(メタデータ) (2022-08-23T07:33:14Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Increasing the efficiency of randomized trial estimates via linear
adjustment for a prognostic score [59.75318183140857]
ランダム化実験による因果効果の推定は臨床研究の中心である。
歴史的借用法のほとんどは、厳格なタイプiエラー率制御を犠牲にして分散の削減を達成する。
論文 参考訳(メタデータ) (2020-12-17T21:10:10Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Local Interpretability of Calibrated Prediction Models: A Case of Type 2
Diabetes Mellitus Screening Test [0.6934179242586092]
機械学習(ML)モデルは、しばしば「ブラックボックス」の特性のために複雑で解釈が難しい。
解釈可能性は多くの医療分野において、MLモデルに基づく意思決定に関連するリスクが高いため、非常に重要である。
本稿では,予測モデルのキャリブレーションが結果の解釈可能性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-06-02T14:14:35Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z) - SUMO: Unbiased Estimation of Log Marginal Probability for Latent
Variable Models [80.22609163316459]
無限級数のランダム化トランケーションに基づく潜在変数モデルに対して、ログ境界確率の非バイアス推定器とその勾配を導入する。
推定器を用いてトレーニングしたモデルは、同じ平均計算コストに対して、標準的な重要度サンプリングに基づくアプローチよりも優れたテストセット確率を与えることを示す。
論文 参考訳(メタデータ) (2020-04-01T11:49:30Z) - Localized Debiased Machine Learning: Efficient Inference on Quantile
Treatment Effects and Beyond [69.83813153444115]
因果推論における(局所)量子化処理効果((L)QTE)の効率的な推定式を検討する。
Debiased Machine Learning (DML)は、高次元のニュアンスを推定するデータ分割手法である。
本稿では、この負担のかかるステップを避けるために、局所的脱バイアス機械学習(LDML)を提案する。
論文 参考訳(メタデータ) (2019-12-30T14:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。