論文の概要: X-CAL: Explicit Calibration for Survival Analysis
- arxiv url: http://arxiv.org/abs/2101.05346v1
- Date: Wed, 13 Jan 2021 21:00:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 09:44:42.292921
- Title: X-CAL: Explicit Calibration for Survival Analysis
- Title(参考訳): X-CAL: 生存分析のための明確な校正
- Authors: Mark Goldstein, Xintian Han, Aahlad Puli, Adler J. Perotte and Rajesh
Ranganath
- Abstract要約: モデルが任意の時間間隔内で予測されたイベント数を観測された数と類似させると、十分校正される。
D-CALIBRATIONを差別化可能な目的に変える明示的なキャリブレーション(X-CAL)を開発しています。
X-CALにより、実践者はキャリブレーションを直接最適化し、予測パワーとキャリブレーションのバランスを望ましいものにすることができる。
- 参考スコア(独自算出の注目度): 22.642252425363335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Survival analysis models the distribution of time until an event of interest,
such as discharge from the hospital or admission to the ICU. When a model's
predicted number of events within any time interval is similar to the observed
number, it is called well-calibrated. A survival model's calibration can be
measured using, for instance, distributional calibration (D-CALIBRATION)
[Haider et al., 2020] which computes the squared difference between the
observed and predicted number of events within different time intervals.
Classically, calibration is addressed in post-training analysis. We develop
explicit calibration (X-CAL), which turns D-CALIBRATION into a differentiable
objective that can be used in survival modeling alongside maximum likelihood
estimation and other objectives. X-CAL allows practitioners to directly
optimize calibration and strike a desired balance between predictive power and
calibration. In our experiments, we fit a variety of shallow and deep models on
simulated data, a survival dataset based on MNIST, on length-of-stay prediction
using MIMIC-III data, and on brain cancer data from The Cancer Genome Atlas. We
show that the models we study can be miscalibrated. We give experimental
evidence on these datasets that X-CAL improves D-CALIBRATION without a large
decrease in concordance or likelihood.
- Abstract(参考訳): 生存分析は、病院からの退院やICUへの入院など、興味のある出来事までの時間分布をモデル化する。
モデルが任意の時間間隔内で予測した事象の数を観測値に類似させると、それを well-calibrated と呼ぶ。
サバイバルモデルのキャリブレーションは、例えば分布キャリブレーション(d-キャリブレーション) [haider et al., 2020] を用いて測定でき、異なる時間間隔内で観測された事象数と予測された事象数の2乗差を計算することができる。
古典的には、キャリブレーションはトレーニング後の分析で対処される。
我々は,D-CALIBrationを,最大推定値と他の目的値と並行して生存モデルに使用可能な,識別可能な目的に転換する明示的キャリブレーション(X-CAL)を開発する。
X-CALにより、実践者はキャリブレーションを直接最適化し、予測パワーとキャリブレーションのバランスを望ましいものにすることができる。
実験では, シミュレーションデータ, mnistに基づくサバイバルデータセット, mimic-iiiデータを用いた長寿命予測, 癌ゲノムアトラスからの脳がんデータに, 様々な浅層モデルと深層モデルを適用した。
研究対象のモデルは誤校正可能であることを示す。
X-CALによるD-CALIBationの改善は, 一致や可能性の大きな低下を伴わずに, 実験的な証拠を提示する。
関連論文リスト
- ForeCal: Random Forest-based Calibration for DNNs [0.0]
我々はランダム森林に基づく新しいポストホックキャリブレーションアルゴリズムであるForeCalを提案する。
ForeCalはランダム森林の2つのユニークな特性を生かしている。
ForeCal は,AUC が測定した基準の識別力に最小限の影響を与え,予測誤差(ECE) で既存手法より優れることを示す。
論文 参考訳(メタデータ) (2024-09-04T04:56:41Z) - Risk and cross validation in ridge regression with correlated samples [72.59731158970894]
我々は,データポイントが任意の相関関係を持つ場合,リッジ回帰のイン・オブ・サンプルリスクのトレーニング例を提供する。
この設定では、一般化されたクロスバリデーション推定器(GCV)がサンプル外リスクを正確に予測できないことを示す。
さらに、テストポイントがトレーニングセットと非自明な相関を持つ場合、時系列予測でしばしば発生する設定にまで分析を拡張します。
論文 参考訳(メタデータ) (2024-08-08T17:27:29Z) - Bayesian calibration of stochastic agent based model via random forest [1.4447019135112433]
エージェントベースモデル(ABM)は、疫学におけるアウトブレイクと介入をモデル化するための優れたフレームワークを提供する。
これらのモデルは通常、高度にパラメータ化されており、予測性能の正確な校正が必要である。
本稿では,ABMの評価を高速化するために,ランダム森林を用いた代理モデリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-27T20:50:06Z) - Calibrating Large Language Models with Sample Consistency [76.23956851098598]
本稿では,複数サンプルモデル生成系の分布から信頼度を導出する可能性について,一貫性の3つの尺度を用いて検討する。
その結果、一貫性に基づくキャリブレーション手法は、既存のポストホック手法よりも優れていることがわかった。
種々のLMの特性に合わせて,キャリブレーションに適した整合性指標を選択するための実用的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-02-21T16:15:20Z) - Explain Variance of Prediction in Variational Time Series Models for
Clinical Deterioration Prediction [4.714591319660812]
本稿では,予測モデルの観点から臨床変数測定頻度の新たな視点を提案する。
予測分散は、変分モデルで条件付き隠れ空間をサンプリングすることによって推定され、デルタ法により決定的に近似することができる。
我々は、劣化予測タスクを用いたパブリックICUデータセット上でアイデアを検証し、分散SHAPと測定時間間隔の関係について検討した。
論文 参考訳(メタデータ) (2024-02-09T22:14:40Z) - T-Cal: An optimal test for the calibration of predictive models [49.11538724574202]
有限検証データセットを用いた予測モデルの誤校正を仮説検証問題として検討する。
誤校正の検出は、クラスの条件付き確率が予測の十分滑らかな関数である場合にのみ可能である。
我々は、$ell$-Expected Error(ECE)のデバイアスドプラグイン推定器に基づくキャリブレーションのためのミニマックステストであるT-Calを提案する。
論文 参考訳(メタデータ) (2022-03-03T16:58:54Z) - On the relationship between calibrated predictors and unbiased volume
estimation [18.96093589337619]
機械学習による医用画像のセグメンテーションは、医用画像解析において標準となっている。
しかし、ディープラーニングモデルは、過度に自信過剰な予測をしがちである。
これにより、医療画像とより広い機械学習コミュニティの調整された予測に、新たな焦点が当てられた。
論文 参考訳(メタデータ) (2021-12-23T14:22:19Z) - Increasing the efficiency of randomized trial estimates via linear
adjustment for a prognostic score [59.75318183140857]
ランダム化実験による因果効果の推定は臨床研究の中心である。
歴史的借用法のほとんどは、厳格なタイプiエラー率制御を犠牲にして分散の削減を達成する。
論文 参考訳(メタデータ) (2020-12-17T21:10:10Z) - Calibration of Neural Networks using Splines [51.42640515410253]
キャリブレーション誤差の測定は、2つの経験的分布を比較します。
古典的コルモゴロフ・スミルノフ統計テスト(KS)にインスパイアされたビンニングフリーキャリブレーション尺度を導入する。
提案手法は,KS誤差に対する既存の手法と,他の一般的なキャリブレーション手法とを一貫して比較する。
論文 参考訳(メタデータ) (2020-06-23T07:18:05Z) - Individual Calibration with Randomized Forecasting [116.2086707626651]
予測値がランダムに設定された場合,各サンプルのキャリブレーションは回帰設定で可能であることを示す。
我々は、個別の校正を強制する訓練目標を設計し、それをランダム化された回帰関数の訓練に使用する。
論文 参考訳(メタデータ) (2020-06-18T05:53:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。