論文の概要: Distillation to Enhance the Portability of Risk Models Across
Institutions with Large Patient Claims Database
- arxiv url: http://arxiv.org/abs/2207.02445v1
- Date: Wed, 6 Jul 2022 05:26:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 00:31:39.364797
- Title: Distillation to Enhance the Portability of Risk Models Across
Institutions with Large Patient Claims Database
- Title(参考訳): 大規模患者クレームデータベースにおけるリスクモデルのポータビリティ向上のための蒸留法
- Authors: Steve Nyemba, Chao Yan, Ziqi Zhang, Amol Rajmane, Pablo Meyer,
Prithwish Chakraborty, Bradley Malin
- Abstract要約: 可読性予測モデルのクロスサイト評価によるモデルポータビリティの実現性について検討する。
再帰型ニューラルネットワークを自己注意で拡張し、専門家の特徴とブレンドして、可読性予測モデルを構築する。
実験の結果、ある機関で訓練・試験されたMLモデルの直接適用は、同一施設で訓練・試験されたMLモデルよりも悪い結果が得られた。
- 参考スコア(独自算出の注目度): 12.452703677540505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence, and particularly machine learning (ML), is
increasingly developed and deployed to support healthcare in a variety of
settings. However, clinical decision support (CDS) technologies based on ML
need to be portable if they are to be adopted on a broad scale. In this
respect, models developed at one institution should be reusable at another. Yet
there are numerous examples of portability failure, particularly due to naive
application of ML models. Portability failure can lead to suboptimal care and
medical errors, which ultimately could prevent the adoption of ML-based CDS in
practice. One specific healthcare challenge that could benefit from enhanced
portability is the prediction of 30-day readmission risk. Research to date has
shown that deep learning models can be effective at modeling such risk. In this
work, we investigate the practicality of model portability through a cross-site
evaluation of readmission prediction models. To do so, we apply a recurrent
neural network, augmented with self-attention and blended with expert features,
to build readmission prediction models for two independent large scale claims
datasets. We further present a novel transfer learning technique that adapts
the well-known method of born-again network (BAN) training. Our experiments
show that direct application of ML models trained at one institution and tested
at another institution perform worse than models trained and tested at the same
institution. We further show that the transfer learning approach based on the
BAN produces models that are better than those trained on just a single
institution's data. Notably, this improvement is consistent across both sites
and occurs after a single retraining, which illustrates the potential for a
cheap and general model transfer mechanism of readmission risk prediction.
- Abstract(参考訳): 人工知能、特に機械学習(ML)は、さまざまな環境で医療をサポートするために開発され、デプロイされている。
しかし、MLに基づく臨床意思決定支援(CDS)技術は、広範囲に採用されるには移植性が必要である。
この点において、ある機関で開発されたモデルは別の機関で再利用されるべきである。
しかし、特にmlモデルのナイーブな適用によるポータビリティ障害の例が数多く存在する。
移植性障害は、最適以下のケアと医療上のエラーにつながる可能性があるため、MLベースのCDSが実際に採用されることを防げる。
ポータビリティ向上の恩恵を受けることができる特定の医療課題は、30日間の寛解リスクの予測である。
これまでの研究で、ディープラーニングモデルはそのようなリスクのモデリングに効果的であることが示されている。
本研究は,可読性予測モデルのクロスサイト評価によるモデルポータビリティの実現性について検討する。
そのため,2つの独立した大規模クレームデータセットに対する可読性予測モデルを構築するために,自己注意で拡張され,専門家機能とブレンドされたリカレントニューラルネットワークを適用する。
さらに,よく知られたボルン・アゲイン・ネットワーク(ban)トレーニング手法を適用した新しい転校学習手法を提案する。
実験の結果、ある機関で訓練・試験されたMLモデルの直接適用は、同一施設で訓練・試験されたMLモデルよりも悪い結果が得られた。
さらに、BANに基づくトランスファー学習アプローチは、単一の機関のデータに基づいてトレーニングされたモデルよりも優れたモデルを生成することを示す。
特に、この改善は両サイト間で一貫しており、単一の再訓練後に発生し、読み出しリスク予測の安価で一般的なモデル転送機構の可能性を示している。
関連論文リスト
- Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Evaluation of Predictive Reliability to Foster Trust in Artificial
Intelligence. A case study in Multiple Sclerosis [0.34473740271026115]
機械学習の失敗のスポッティングは、ML予測を使用して臨床上の決定を下す場合、最重要事項である。
我々は,任意のMLモデルのデプロイメントフェーズで使用可能なシンプルなアプローチを提案し,予測を信頼するか否かを提案する。
本手法は,デプロイメント中のML障害の可能性を見極めることによって,臨床医に効果的な支援を提供することを約束する。
論文 参考訳(メタデータ) (2024-02-27T14:48:07Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Safe AI for health and beyond -- Monitoring to transform a health
service [51.8524501805308]
機械学習アルゴリズムの出力を監視するために必要なインフラストラクチャを評価する。
モデルのモニタリングと更新の例を示す2つのシナリオを提示します。
論文 参考訳(メタデータ) (2023-03-02T17:27:45Z) - Transfer Learning with Uncertainty Quantification: Random Effect
Calibration of Source to Target (RECaST) [1.8047694351309207]
我々はRECaSTと呼ばれる伝達学習に基づくモデル予測のための統計的枠組みを開発する。
線形モデル間の伝達学習におけるRECaST手法の有効性を数学的・実験的に実証した。
シミュレーション研究における本手法の性能と実際の病院データへの適用について検討する。
論文 参考訳(メタデータ) (2022-11-29T19:39:47Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - The unreasonable effectiveness of Batch-Norm statistics in addressing
catastrophic forgetting across medical institutions [8.244654685687054]
モデル改良と事前学習した知識の保持のトレードオフについて検討する。
本稿では,従来のデータセットのグローバルバッチ正規化統計値を用いて,弾性重み付け(EWC)を適応する,単純で効果的な手法を提案する。
論文 参考訳(メタデータ) (2020-11-16T16:57:05Z) - Democratizing Artificial Intelligence in Healthcare: A Study of Model
Development Across Two Institutions Incorporating Transfer Learning [8.043077408518826]
トランスファーラーニング(TL)は、非常に小さなローカルデータセットを使用して、ある機関から完全に訓練されたモデルを他の機関によって微調整することを可能にする。
本稿では,基本的なユースケースを対象としたAIモデル開発におけるTLの課題,方法論,メリットについて述べる。
論文 参考訳(メタデータ) (2020-09-25T21:12:50Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。