論文の概要: DeepCOVID-Fuse: A Multi-modality Deep Learning Model Fusing Chest
X-Radiographs and Clinical Variables to Predict COVID-19 Risk Levels
- arxiv url: http://arxiv.org/abs/2301.08798v1
- Date: Fri, 20 Jan 2023 20:54:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 16:25:10.548884
- Title: DeepCOVID-Fuse: A Multi-modality Deep Learning Model Fusing Chest
X-Radiographs and Clinical Variables to Predict COVID-19 Risk Levels
- Title(参考訳): DeepCOVID-Fuse: 胸部X線写真と臨床変数を併用した多モード深層学習モデル
- Authors: Yunan Wu, Amil Dravid, Ramsey Michael Wehbe, Aggelos K. Katsaggelos
- Abstract要約: DeepCOVID-Fuseは、新型コロナウイルス患者のリスクレベルを予測するディープラーニング融合モデルである。
CXRと臨床変数で訓練されたDeepCOVID-Fuseの精度は0.658であり、AUCは0.842である。
- 参考スコア(独自算出の注目度): 8.593516170110203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Propose: To present DeepCOVID-Fuse, a deep learning fusion model to predict
risk levels in patients with confirmed coronavirus disease 2019 (COVID-19) and
to evaluate the performance of pre-trained fusion models on full or partial
combination of chest x-ray (CXRs) or chest radiograph and clinical variables.
Materials and Methods: The initial CXRs, clinical variables and outcomes
(i.e., mortality, intubation, hospital length of stay, ICU admission) were
collected from February 2020 to April 2020 with reverse-transcription
polymerase chain reaction (RT-PCR) test results as the reference standard. The
risk level was determined by the outcome. The fusion model was trained on 1657
patients (Age: 58.30 +/- 17.74; Female: 807) and validated on 428 patients
(56.41 +/- 17.03; 190) from Northwestern Memorial HealthCare system and was
tested on 439 patients (56.51 +/- 17.78; 205) from a single holdout hospital.
Performance of pre-trained fusion models on full or partial modalities were
compared on the test set using the DeLong test for the area under the receiver
operating characteristic curve (AUC) and the McNemar test for accuracy,
precision, recall and F1.
Results: The accuracy of DeepCOVID-Fuse trained on CXRs and clinical
variables is 0.658, with an AUC of 0.842, which significantly outperformed (p <
0.05) models trained only on CXRs with an accuracy of 0.621 and AUC of 0.807
and only on clinical variables with an accuracy of 0.440 and AUC of 0.502. The
pre-trained fusion model with only CXRs as input increases accuracy to 0.632
and AUC to 0.813 and with only clinical variables as input increases accuracy
to 0.539 and AUC to 0.733.
Conclusion: The fusion model learns better feature representations across
different modalities during training and achieves good outcome predictions even
when only some of the modalities are used in testing.
- Abstract(参考訳): 目的:DeepCOVID-Fuseは、2019年新型コロナウイルス感染症(COVID-19)患者のリスクレベルを予測するディープラーニング融合モデルであり、胸部X線(CXR)と胸部X線(CXR)と臨床変数の完全または部分組み合わせによる事前学習融合モデルの性能を評価する。
材料と方法:2020年2月から2020年4月にかけて, 初期CXR, 臨床変数, 成績(死亡, 挿管, 入院期間, ICU入院)を基準基準として, 逆転写ポリメラーゼ鎖反応 (RT-PCR) 試験結果を収集した。
リスクレベルは結果によって決定された。
融合モデルは1657人の患者(年齢:58.30 +/- 17.74、女性:807)に訓練され、ノースウェスタン記念医療システムから428人の患者(56.41 +/- 17.03; 190)に検証され、1つのホールドアウト病院から439人の患者(56.51 +/- 17.78; 205)に試験された。
実測値, 精度, 精度, リコール値およびF1に対するMcNemar試験と, 受信機動作特性曲線(AUC)の領域に対するDeLong試験を用いて, 実測値および部分変調値に対する事前学習型核融合モデルの性能を比較した。
結果: CXRと臨床変数で訓練されたDeepCOVID-Fuseの精度は0.658であり, AUCは0.842であり, CXRで訓練されたモデルでは0.621, AUCは0.807, 臨床変数では0.440, AUCは0.502であった。
CXRのみを入力とする予訓練核融合モデルでは精度が0.632、AUCが0.813、臨床変数のみが0.539、AUCが0.733となる。
結論: 融合モデルは、トレーニング中に異なるモダリティを越えてより良い特徴表現を学習し、テストでいくつかのモダリティしか使われなくても良い結果を予測する。
関連論文リスト
- Multi-modal AI for comprehensive breast cancer prognostication [18.691704371847855]
そこで我々は,新しいAI手法を用いて,デジタル病理と臨床特性に基づく乳癌患者層化試験を開発した。
この検査は15のコホートにまたがる8,161人の乳癌患者のデータを用いて開発・評価された。
その結果、我々のAIテストは精度を向上し、幅広い患者に適用性を高め、治療選択ツールへのアクセスを向上させることが示唆された。
論文 参考訳(メタデータ) (2024-10-28T17:54:29Z) - Detection of subclinical atherosclerosis by image-based deep learning on chest x-ray [86.38767955626179]
460胸部X線で冠状動脈カルシウム(CAC)スコアを予測する深層学習アルゴリズムを開発した。
AICACモデルの診断精度は, 曲線下領域(AUC)で評価された。
論文 参考訳(メタデータ) (2024-03-27T16:56:14Z) - A new method of modeling the multi-stage decision-making process of CRT using machine learning with uncertainty quantification [8.540186345787244]
本研究の目的は、心不全患者に対する心臓再同期療法(CRT)反応を予測するための多段階機械学習モデルを構築することである。
論文 参考訳(メタデータ) (2023-09-15T14:18:53Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - A Generalizable Artificial Intelligence Model for COVID-19
Classification Task Using Chest X-ray Radiographs: Evaluated Over Four
Clinical Datasets with 15,097 Patients [6.209420804714487]
トレーニングされたモデルの一般化性は、4つの異なる実世界の臨床データセットを用いて遡及的に評価された。
単一ソースの臨床データセットを使用してトレーニングされたAIモデルは、内部時間テストセットに適用すると、AUCが0.82に達した。
医療画像・データ資源センターが収集した多施設のCOVID-19データセットに適用すると、AUCは0.79に達した。
論文 参考訳(メタデータ) (2022-10-04T04:12:13Z) - Multi-institutional Validation of Two-Streamed Deep Learning Method for
Automated Delineation of Esophageal Gross Tumor Volume using planning-CT and
FDG-PETCT [14.312659667401302]
食道悪性腫瘍容積(GTV)コントゥーリングの現況は,高作業コストとユーザ間の変動を手作業で記述することに依存している。
1施設で開発された深層学習(DL)多モード食道GTVコンチューリングモデルの臨床的応用性を検証する。
論文 参考訳(メタデータ) (2021-10-11T13:56:09Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - CovidDeep: SARS-CoV-2/COVID-19 Test Based on Wearable Medical Sensors
and Efficient Neural Networks [51.589769497681175]
新型コロナウイルス(SARS-CoV-2)がパンデミックを引き起こしている。
SARS-CoV-2の逆転写-ポリメラーゼ連鎖反応に基づく現在の試験体制は、試験要求に追いついていない。
我々は,効率的なDNNと市販のWMSを組み合わせたCovidDeepというフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-20T21:47:28Z) - Predicting Clinical Outcomes in COVID-19 using Radiomics and Deep
Learning on Chest Radiographs: A Multi-Institutional Study [3.3839341058136054]
新型コロナウイルス感染症(COVID-19)患者の胸部X線写真(CXR)の計算モデルを用いて,機械的換気要件と死亡率を予測する。
2020年3月から8月にかけて、Stony Brook大学病院とNewark Beth Israel Medical Centerで治療された新型コロナウイルス患者530種のCXRを解析した。
論文 参考訳(メタデータ) (2020-07-15T22:48:11Z) - Joint Prediction and Time Estimation of COVID-19 Developing Severe
Symptoms using Chest CT Scan [49.209225484926634]
術後に重篤な症状を発症するかどうかを判定するための共同分類法と回帰法を提案する。
提案手法は,各試料の重量を考慮し,外乱の影響を低減し,不均衡な分類の問題を検討する。
提案手法では, 重症症例の予測精度76.97%, 相関係数0.524, 変換時間0.55日差が得られた。
論文 参考訳(メタデータ) (2020-05-07T12:16:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。