論文の概要: Driving down Poisson error can offset classification error in clinical tasks
- arxiv url: http://arxiv.org/abs/2405.06065v2
- Date: Sat, 18 May 2024 18:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 20:25:40.048032
- Title: Driving down Poisson error can offset classification error in clinical tasks
- Title(参考訳): Poissonエラーの運転は、臨床タスクの分類エラーを相殺できる
- Authors: Charles B. Delahunt, Courosh Mehanian, Matthew P. Horning,
- Abstract要約: 人間は稀な出来事のポアソン統計から非自明な誤りを被る。
MLシステムは、オブジェクトレベルでは正確ではないかもしれないが、より多くの血液を調べるオプションもあるかもしれない。
臨床展開の資格を得るためには、MLシステムのパフォーマンスは現在のケア基準に適合しなければならない。
- 参考スコア(独自算出の注目度): 0.40964539027092906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical machine learning algorithms are typically evaluated based on accuracy vs. a clinician-defined ground truth, a reasonable initial choice since trained clinicians are usually better classifiers than ML models. However, this metric does not fully capture the actual clinical task: it neglects the fact that humans, even with perfect accuracy, are subject to non-trivial error from the Poisson statistics of rare events, because clinical protocols often specify a relatively small sample size. For example, to quantitate malaria on a thin blood film a clinician examines only 2000 red blood cells (0.0004 uL), which can yield large Poisson variation in the actual number of parasites present, so that a perfect human's count can differ substantially from the true average load. In contrast, an ML system may be less accurate on an object level, but it may also have the option to examine more blood (e.g. 0.1 uL, or 250x). Then while its parasite identification error is higher, the Poisson variability of its estimate is lower due to larger sample size. To qualify for clinical deployment, an ML system's performance must match current standard of care, typically a very demanding target. To achieve this, it may be possible to offset the ML system's lower accuracy by increasing its sample size to reduce Poisson error, and thus attain the same net clinical performance as a perfectly accurate human limited by smaller sample size. In this paper, we analyse the mathematics of the relationship between Poisson error, classification error, and total error. This mathematical toolkit enables teams optimizing ML systems to leverage a relative strength (larger sample sizes) to offset a relative weakness (classification accuracy). We illustrate the methods with two concrete examples: diagnosis and quantitation of malaria on blood films.
- Abstract(参考訳): 医学機械学習アルゴリズムは通常、精度に基づいて評価されるが、臨床医が定義した真実は、訓練された臨床医が通常、MLモデルよりも優れた分類器であるので、合理的な初期選択である。
しかし、この測定基準は実際の臨床的タスクを完全に捉えていない。ヒトが完全に正確であっても、稀な事象のポアソン統計から非自明な誤りを犯しているという事実を無視する。
例えば、薄い血液膜上でマラリアを定量化するために、臨床医は2000個の赤血球(0.0004 uL)しか検査せず、これは実際の寄生虫数に大きなポアソン変動をもたらすので、完全なヒトの数は真の平均負荷と大きく異なる。
対照的に、MLシステムはオブジェクトレベルでは正確ではないかもしれないが、より多くの血液(例えば0.1uL、250x)を調べるオプションもある。
寄生虫同定誤差は高いが, 標本サイズが大きいため, 推定値のポアソン変動は小さい。
臨床展開の資格を得るためには、MLシステムのパフォーマンスは現在のケアの標準(典型的には非常に要求の多い目標)と一致しなければならない。
これを実現するために、サンプルサイズを大きくしてポアソン誤差を低減することにより、MLシステムの低い精度を相殺することが可能であり、したがって、より小さいサンプルサイズで制限された完全精度の人間と同一の臨床性能を得ることができる。
本稿では,ポアソン誤差,分類誤差,総誤差の関係を数学的に解析する。
この数学的ツールキットにより、チームはMLシステムを最適化し、相対的な強度(より大きなサンプルサイズ)を利用して相対的な弱点(分類精度)を相殺することができる。
本手法は,血液膜上のマラリアの診断と定量化の2つの具体例で説明する。
関連論文リスト
- Mixed-Integer Projections for Automated Data Correction of EMRs Improve
Predictions of Sepsis among Hospitalized Patients [7.639610349097473]
本稿では,領域制約として臨床専門知識をシームレスに統合する革新的プロジェクションに基づく手法を提案する。
我々は、患者データの健全な範囲を規定する制約から補正されたデータの距離を測定する。
AUROCは0.865で、精度は0.922で、従来のMLモデルを上回る。
論文 参考訳(メタデータ) (2023-08-21T15:14:49Z) - High-dimensional Measurement Error Models for Lipschitz Loss [2.6415509201394283]
リプシッツ損失関数のクラスに対する高次元計測誤差モデルを開発する。
我々の推定器は、適切な実現可能な集合に属するすべての推定器の中で、$L_1$ノルムを最小化するように設計されている。
有限標本統計誤差境界と符号の整合性の観点から理論的な保証を導出する。
論文 参考訳(メタデータ) (2022-10-26T20:06:05Z) - Building Robust Machine Learning Models for Small Chemical Science Data:
The Case of Shear Viscosity [3.4761212729163313]
我々はLennard-Jones (LJ)流体のせん断粘度を予測するために、いくつかの機械学習モデルを訓練する。
具体的には,モデル選択,性能評価,不確実性定量化に関する課題について検討した。
論文 参考訳(メタデータ) (2022-08-23T07:33:14Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Increasing the efficiency of randomized trial estimates via linear
adjustment for a prognostic score [59.75318183140857]
ランダム化実験による因果効果の推定は臨床研究の中心である。
歴史的借用法のほとんどは、厳格なタイプiエラー率制御を犠牲にして分散の削減を達成する。
論文 参考訳(メタデータ) (2020-12-17T21:10:10Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Local Interpretability of Calibrated Prediction Models: A Case of Type 2
Diabetes Mellitus Screening Test [0.6934179242586092]
機械学習(ML)モデルは、しばしば「ブラックボックス」の特性のために複雑で解釈が難しい。
解釈可能性は多くの医療分野において、MLモデルに基づく意思決定に関連するリスクが高いため、非常に重要である。
本稿では,予測モデルのキャリブレーションが結果の解釈可能性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-06-02T14:14:35Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z) - SUMO: Unbiased Estimation of Log Marginal Probability for Latent
Variable Models [80.22609163316459]
無限級数のランダム化トランケーションに基づく潜在変数モデルに対して、ログ境界確率の非バイアス推定器とその勾配を導入する。
推定器を用いてトレーニングしたモデルは、同じ平均計算コストに対して、標準的な重要度サンプリングに基づくアプローチよりも優れたテストセット確率を与えることを示す。
論文 参考訳(メタデータ) (2020-04-01T11:49:30Z) - Localized Debiased Machine Learning: Efficient Inference on Quantile
Treatment Effects and Beyond [69.83813153444115]
因果推論における(局所)量子化処理効果((L)QTE)の効率的な推定式を検討する。
Debiased Machine Learning (DML)は、高次元のニュアンスを推定するデータ分割手法である。
本稿では、この負担のかかるステップを避けるために、局所的脱バイアス機械学習(LDML)を提案する。
論文 参考訳(メタデータ) (2019-12-30T14:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。