論文の概要: Instability in clinical risk stratification models using deep learning
- arxiv url: http://arxiv.org/abs/2211.10828v1
- Date: Sun, 20 Nov 2022 00:16:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 18:20:23.553899
- Title: Instability in clinical risk stratification models using deep learning
- Title(参考訳): 深層学習を用いた臨床リスク階層モデルの不安定性
- Authors: Daniel Lopez-Martinez, Alex Yakubovich, Martin Seneviratne, Adam D.
Lelkes, Akshit Tyagi, Jonas Kemp, Ethan Steinberg, N. Lance Downing, Ron C.
Li, Keith E. Morse, Nigam H. Shah, Ming-Jun Chen
- Abstract要約: 我々は,同一の深層学習モデルを用いて,同一の訓練データに対する繰り返しトレーニングを行うことで,患者レベルでの有意に異なる結果が得られることを示した。
モデル学習におけるランダム性の効果を測定するための2つの安定性指標と、モデル安定性を改善するための緩和戦略を提案する。
- 参考スコア(独自算出の注目度): 6.706030349417204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While it has been well known in the ML community that deep learning models
suffer from instability, the consequences for healthcare deployments are under
characterised. We study the stability of different model architectures trained
on electronic health records, using a set of outpatient prediction tasks as a
case study. We show that repeated training runs of the same deep learning model
on the same training data can result in significantly different outcomes at a
patient level even though global performance metrics remain stable. We propose
two stability metrics for measuring the effect of randomness of model training,
as well as mitigation strategies for improving model stability.
- Abstract(参考訳): ディープラーニングモデルは不安定性に悩まされていることは、MLコミュニティでよく知られているが、医療デプロイメントの結果は明らかになっていない。
電子健康記録に基づいてトレーニングされた異なるモデルアーキテクチャの安定性を,外来患者予測タスクのセットを用いて検討した。
同じトレーニングデータ上で同じディープラーニングモデルの繰り返しトレーニング実行は、グローバルなパフォーマンス指標が安定していても、患者レベルでは著しく異なる結果をもたらす可能性がある。
モデル学習の効果を測定するための2つの安定性指標とモデル安定性を改善するための緩和戦略を提案する。
関連論文リスト
- Enhancing Training Data Attribution for Large Language Models with Fitting Error Consideration [74.09687562334682]
Debias and Denoise Attribution (DDA) と呼ばれる新しいトレーニングデータ属性法を導入する。
提案手法は既存のアプローチよりも優れており,平均91.64%のAUCを実現している。
DDAは、様々なソースとLLaMA2、QWEN2、Mistralのような異なるスケールのモデルに対して、強力な汎用性とスケーラビリティを示す。
論文 参考訳(メタデータ) (2024-10-02T07:14:26Z) - Assessing Robustness of Machine Learning Models using Covariate Perturbations [0.6749750044497732]
本稿では,機械学習モデルの堅牢性を評価するための包括的フレームワークを提案する。
本研究では、ロバスト性の評価とモデル予測への影響を検討するために、様々な摂動戦略を検討する。
モデル間のロバスト性の比較、モデルの不安定性同定、モデルのロバスト性向上におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-08-02T14:41:36Z) - Addressing Data Heterogeneity in Federated Learning of Cox Proportional Hazards Models [8.798959872821962]
本稿では,フェデレーションサバイバル分析の分野,特にCox Proportional Hazards(CoxPH)モデルについて概説する。
本稿では,合成データセットと実世界のアプリケーション間のモデル精度を向上させるために,特徴ベースのクラスタリングを用いたFLアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-20T18:34:20Z) - Not All Steps are Equal: Efficient Generation with Progressive Diffusion
Models [62.155612146799314]
ステップ適応トレーニングと呼ばれる新しい2段階のトレーニング戦略を提案する。
初期段階では、ベース・デノナイジング・モデルはすべてのタイムステップを包含するように訓練される。
タイムステップを別々のグループに分割し、各グループ内でモデルを微調整して、特殊な認知機能を実現します。
論文 参考訳(メタデータ) (2023-12-20T03:32:58Z) - On the Calibration of Large Language Models and Alignment [63.605099174744865]
信頼性キャリブレーションは、ディープモデルの信頼性を高める重要なツールである。
構築プロセス全体を通して、アライメント言語モデルの校正を体系的に検討する。
我々の研究は、人気のあるLCMが十分に校正されているか、トレーニングプロセスがモデルの校正にどのように影響するかに光を当てています。
論文 参考訳(メタデータ) (2023-11-22T08:57:55Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - Deep Stable Representation Learning on Electronic Health Records [8.256340233221112]
CHE(Causal Healthcare Embedding)は、診断と処置の依存関係を取り除くことで、突発的な統計的関係を取り除くことを目的としている。
提案手法は,既存の深層学習モデルをEHR上で拡張可能な,フレキシブルなプラグアンドプレイモジュールとして利用できる。
論文 参考訳(メタデータ) (2022-09-03T04:10:45Z) - Model Stability with Continuous Data Updates [2.439909645714735]
機械学習(ML)モデルの「安定性」を,大規模で複雑なNLPシステムのコンテキスト内で研究する。
ネットワークアーキテクチャや入力表現を含むモデル設計の選択は、安定性に重大な影響を与える。
モデリングの選択を行う際に、MLモデルデザイナが正確さとジッタのトレードオフを考慮に入れることを推奨する。
論文 参考訳(メタデータ) (2022-01-14T22:11:16Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z) - Variational Learning of Individual Survival Distributions [21.40142425105635]
本稿では,分散学習技術とディープニューラルネットワークの最近の進歩を基盤として,変分生存推定(VSI)と呼ばれる変動時間対イベント予測モデルを提案する。
提案手法の有効性を検証するため, 合成および実世界の両方のデータセットに対する広範な実験を行い, 競合するソリューションと比較して性能が向上したことを示す。
論文 参考訳(メタデータ) (2020-03-09T22:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。