論文の概要: Optimal sizing of a holdout set for safe predictive model updating
- arxiv url: http://arxiv.org/abs/2202.06374v1
- Date: Sun, 13 Feb 2022 18:04:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 06:42:25.532960
- Title: Optimal sizing of a holdout set for safe predictive model updating
- Title(参考訳): 安全な予測モデル更新のためのホールドアウトセットの最適サイズ
- Authors: Sami Haidar-Wehbe, Samuel R Emerson, Louis J M Aslett, James Liley
- Abstract要約: リスクモデルは、患者データからの洞察を実践者に提供することで介入を導くことができる。
ガイド付き介入の後にモデルが更新される場合、予測に失敗する可能性がある。
モデルによって導かれる介入を受けない集団のサブセットであるホールドアウトセット'の使用は、これを防ぐために提案されている。
- 参考スコア(独自算出の注目度): 0.9749560288448114
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Risk models are becoming ubiquitous in healthcare and may guide intervention
by providing practitioners with insights from patient data. Should a model be
updated after a guided intervention, it may lead to its own failure at making
predictions. The use of a `holdout set' -- a subset of the population that does
not receive interventions guided by the model -- has been proposed to prevent
this. Since patients in the holdout set do not benefit from risk predictions,
the chosen size must trade off maximising model performance whilst minimising
the number of held out patients. By defining a general loss function, we prove
the existence and uniqueness of an optimal holdout set size, and introduce
parametric and semi-parametric algorithms for its estimation. We demonstrate
their use on a recent risk score for pre-eclampsia. Based on these results, we
argue that a holdout set is a safe, viable and easily implemented solution to
the model update problem.
- Abstract(参考訳): リスクモデルは医療においてユビキタスになり、患者データからの洞察を提供することで介入を導く可能性がある。
モデルがガイドされた介入後に更新されると、予測を行うのに失敗する可能性がある。
モデルによって導かれる介入を受けない集団のサブセットである「ホールドアウトセット」の使用がこれを防ぐために提案されている。
ホールドアウトセットの患者はリスク予測の恩恵を受けないため、ホールドアウトセットの患者数を最小限に抑えながら、モデルパフォーマンスの最大化をトレードオフしなければならない。
一般損失関数を定義することにより、最適ホールドアウト集合サイズの存在と一意性を証明し、その推定にパラメトリックおよびセミパラメトリックアルゴリズムを導入する。
われわれは,近年の予防接種前のリスクスコアを実証した。
これらの結果に基づき、ホールドアウトセットはモデル更新問題に対する安全で実行可能で実装が容易なソリューションであると主張する。
関連論文リスト
- Data-driven decision-making under uncertainty with entropic risk measure [5.407319151576265]
エントロピーリスク尺度は、不確実な損失に関連する尾のリスクを考慮に入れた高い意思決定に広く用いられている。
経験的エントロピーリスク推定器を劣化させるため, 強く一貫したブートストラップ手法を提案する。
検証性能のバイアスが補正されない場合,クロスバリデーション手法は,保険業者のアウト・オブ・サンプルリスクを著しく高める可能性があることを示す。
論文 参考訳(メタデータ) (2024-09-30T04:02:52Z) - Model-Based Epistemic Variance of Values for Risk-Aware Policy Optimization [59.758009422067]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
本稿では,リスク・サーキングとリスク・アバース・ポリシー最適化のいずれにも適用可能な汎用ポリシー最適化アルゴリズムQ-Uncertainty Soft Actor-Critic (QU-SAC)を導入する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - Safe Deployment for Counterfactual Learning to Rank with Exposure-Based
Risk Minimization [63.93275508300137]
本稿では,安全な配置を理論的に保証する新たなリスク認識型対実学習ランク法を提案する。
提案手法の有効性を実験的に検証し,データが少ない場合の動作不良の早期回避に有効であることを示す。
論文 参考訳(メタデータ) (2023-04-26T15:54:23Z) - RAP: Risk-Aware Prediction for Robust Planning [21.83865866611308]
軌道上のリスクバイアス分布を学習するための新しい予測手法を提案する。
これにより、オンライン計画中のリスク推定のサンプルの複雑さが軽減される。
論文 参考訳(メタデータ) (2022-10-04T04:19:15Z) - Off-Policy Risk Assessment in Markov Decision Processes [15.225153671736201]
我々はマルコフ決定過程(MDPs)におけるリターンのCDFのための最初の2倍ロバスト(DR)推定器を開発する。
この推定器は、分散を著しく少なくし、モデルが十分に特定されたとき、クレーマー・ラオ分散の低い境界を達成する。
オフポリチックCDFとリスク推定のための最初のミニマックス下限を導出する。
論文 参考訳(メタデータ) (2022-09-21T15:40:59Z) - A Risk-Sensitive Approach to Policy Optimization [21.684251937825234]
標準深層強化学習(DRL)は、政策の定式化における収集経験を均等に考慮し、期待される報酬を最大化することを目的としている。
そこで本研究では,フルエピソード報酬の分布の累積分布関数 (CDF) で規定されるリスク感性目標を最適化する,より直接的なアプローチを提案する。
エージェントの動作が不十分なシナリオを強調する中程度の「悲観的」リスクプロファイルの使用が,探索の強化と,障害への継続的な対処に繋がることを示す。
論文 参考訳(メタデータ) (2022-08-19T00:55:05Z) - Fast nonlinear risk assessment for autonomous vehicles using learned
conditional probabilistic models of agent futures [19.247932561037487]
本稿では,自動運転車の軌道のリスクを評価するために,高速な非サンプリング方式を提案する。
提案手法はガウス混合モデルと非ガウス混合モデルの両方を含む不確実な予測に対する幅広い表現に対処する。
我々は不確実な位置のモーメントの正確な時間進化を管理する決定論的線形力学系を構築する。
論文 参考訳(メタデータ) (2021-09-21T05:55:39Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - PAC$^m$-Bayes: Narrowing the Empirical Risk Gap in the Misspecified
Bayesian Regime [75.19403612525811]
この研究は、2つのリスク間のトレードオフを分散することでギャップを埋めることのできるマルチサンプル損失を開発する。
実証的研究は予測分布の改善を示す。
論文 参考訳(メタデータ) (2020-10-19T16:08:34Z) - Learning Bounds for Risk-sensitive Learning [86.50262971918276]
リスクに敏感な学習では、損失のリスク・アバース(またはリスク・シーキング)を最小化する仮説を見つけることを目的としている。
最適化された確実性等価性によって最適性を記述するリスク感応学習スキームの一般化特性について検討する。
論文 参考訳(メタデータ) (2020-06-15T05:25:02Z) - Orthogonal Statistical Learning [49.55515683387805]
人口リスクが未知のニュアンスパラメータに依存するような環境では,統計学習における非漸近的過剰リスク保証を提供する。
人口リスクがNeymanityと呼ばれる条件を満たす場合,メタアルゴリズムによって達成される過剰リスクに対するニュアンス推定誤差の影響は2次であることを示す。
論文 参考訳(メタデータ) (2019-01-25T02:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。