論文の概要: Virtual vs. Reality: External Validation of COVID-19 Classifiers using
XCAT Phantoms for Chest Computed Tomography
- arxiv url: http://arxiv.org/abs/2203.03074v1
- Date: Mon, 7 Mar 2022 00:11:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 15:55:02.676442
- Title: Virtual vs. Reality: External Validation of COVID-19 Classifiers using
XCAT Phantoms for Chest Computed Tomography
- Title(参考訳): 仮想対現実:胸部CTにおけるXCATファントムを用いたCOVID-19分類器の外的検証
- Authors: Fakrul Islam Tushar, Ehsan Abadi, Saman Sotoudeh-Paima, Rafael B.
Fricks, Maciej A. Mazurowski, W. Paul Segars, Ehsan Samei, Joseph Y. Lo
- Abstract要約: CVIT-COVIDデータセットを作成し、シミュレーションされたCOVID-19および正常ファントムモデルからの180個の仮想画像計算断層撮影(CT)画像を作成した。
ウォータールー大学のオープンソース深層学習モデルの性能を多施設データを用いて評価した。
我々は,305枚のCT画像のオープンな臨床データに対して,実際の臨床データと仮想的な臨床データのパフォーマンスを比較検討した。
- 参考スコア(独自算出の注目度): 2.924350993741562
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Research studies of artificial intelligence models in medical imaging have
been hampered by poor generalization. This problem has been especially
concerning over the last year with numerous applications of deep learning for
COVID-19 diagnosis. Virtual imaging trials (VITs) could provide a solution for
objective evaluation of these models. In this work utilizing the VITs, we
created the CVIT-COVID dataset including 180 virtually imaged computed
tomography (CT) images from simulated COVID-19 and normal phantom models under
different COVID-19 morphology and imaging properties. We evaluated the
performance of an open-source, deep-learning model from the University of
Waterloo trained with multi-institutional data and an in-house model trained
with the open clinical dataset called MosMed. We further validated the model's
performance against open clinical data of 305 CT images to understand virtual
vs. real clinical data performance. The open-source model was published with
nearly perfect performance on the original Waterloo dataset but showed a
consistent performance drop in external testing on another clinical dataset
(AUC=0.77) and our simulated CVIT-COVID dataset (AUC=0.55). The in-house model
achieved an AUC of 0.87 while testing on the internal test set (MosMed test
set). However, performance dropped to an AUC of 0.65 and 0.69 when evaluated on
clinical and our simulated CVIT-COVID dataset. The VIT framework offered
control over imaging conditions, allowing us to show there was no change in
performance as CT exposure was changed from 28.5 to 57 mAs. The VIT framework
also provided voxel-level ground truth, revealing that performance of in-house
model was much higher at AUC=0.87 for diffuse COVID-19 infection size >2.65%
lung volume versus AUC=0.52 for focal disease with <2.65% volume. The virtual
imaging framework enabled these uniquely rigorous analyses of model
performance.
- Abstract(参考訳): 医療画像における人工知能モデルの研究は、一般化の貧弱さによって妨げられている。
この問題は、新型コロナウイルス(covid-19)の診断にディープラーニングを多用した昨年から特に問題になっている。
vits(virtual imaging trials)は、これらのモデルの客観的評価のためのソリューションを提供する。
本研究は, CVIT-COVIDデータセットを用いて, シミュレーションされたCOVID-19および正常ファントムモデルからの180個の仮想画像計算断層撮影(CT)画像と, 異なる形態および画像特性のCVIT-COVIDデータセットを作成する。
本研究では,多施設データで学習したウォータールー大学のオープンソースディープラーニングモデルと,mosmedと呼ばれるオープン臨床データセットでトレーニングされた社内モデルの性能評価を行った。
さらに,305ct画像のオープン臨床データに対するモデルの性能の検証を行い,実際の臨床データと仮想データの比較を行った。
オープンソースのモデルは、オリジナルのWaterlooデータセットでほぼ完全なパフォーマンスで公開されたが、別の臨床データセット(AUC=0.77)とシミュレーションCVIT-COVIDデータセット(AUC=0.55)で外部テストが一貫したパフォーマンス低下を示した。
社内モデルは内部テストセット(MosMedテストセット)のテスト中に0.87のAUCを達成した。
しかし, cvit-covidデータセットを用いた臨床評価ではauc 0.65 と 0.69 に低下した。
VIT フレームワークでは画像条件の制御が可能で,CT の露出が 28.5 から 57 mAs に変化したため,性能に変化は見られなかった。
VITフレームワークはまたボクセルレベルの地上真実も提供し、AUC=0.87では2.65%の肺容積と2.65%の局所疾患では2.65%の肺容積がAUC=0.52よりも高い性能を示した。
仮想イメージングフレームワークにより、モデル性能の厳密な分析が可能となった。
関連論文リスト
- Auto-Lesion Segmentation with a Novel Intensity Dark Channel Prior for
COVID-19 Detection [0.24578723416255752]
本研究は,他の肺疾患との鑑別を目的としたCTベースの放射線治療フレームワークを開発した。
画像は、新型コロナウイルス(COVID-19)、非新型コロナウイルス(non-COVID-19)、または正常の3つのクラスに分類される。
最高の性能分類モデルであるResidual Neural Network(Resnet-50)は、平均精度、精度、リコール、F1スコアが98.8%、99%、98%、98%に達した。
論文 参考訳(メタデータ) (2023-09-22T06:09:48Z) - Evaluating Generalizability of Deep Learning Models Using
Indian-COVID-19 CT Dataset [5.398550081886242]
臨床環境でのCTスキャン画像の自動処理のためのma-chine learning (ML)アプローチは、公開されているCOVID-19データの限定的で偏りのあるサブセットに基づいて訓練される。
これにより、トレーニング中にモデルに見られない外部データセット上で、これらのモデルの一般化性に関する懸念が持ち上がった。
これらの問題に対処するために、この研究では、最も大きなパブリックリポジトリの1つから得られた確認されたCOVID-19データからのCTスキャン画像を用いて、機械学習モデルのトレーニングと内部バリデーションにCOVIDx CT 2Aを使用した。
論文 参考訳(メタデータ) (2022-12-28T16:23:18Z) - A Generalizable Artificial Intelligence Model for COVID-19
Classification Task Using Chest X-ray Radiographs: Evaluated Over Four
Clinical Datasets with 15,097 Patients [6.209420804714487]
トレーニングされたモデルの一般化性は、4つの異なる実世界の臨床データセットを用いて遡及的に評価された。
単一ソースの臨床データセットを使用してトレーニングされたAIモデルは、内部時間テストセットに適用すると、AUCが0.82に達した。
医療画像・データ資源センターが収集した多施設のCOVID-19データセットに適用すると、AUCは0.79に達した。
論文 参考訳(メタデータ) (2022-10-04T04:12:13Z) - Robust Automated Framework for COVID-19 Disease Identification from a
Multicenter Dataset of Chest CT Scans [27.29759500174996]
提案モデルでは,特定の走査プロトコルを用いて,1つのイメージングセンタのみから取得した比較的小さなデータセットに基づいてトレーニングを行った。
また、列車とテストセット間のデータシフトに対処するため、教師なしアプローチでモデルを更新できることを示した。
実験の結果,提案手法は全テストセットに対して96.15%の精度で良好に動作することがわかった。
論文 参考訳(メタデータ) (2021-09-19T22:32:55Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - The pitfalls of using open data to develop deep learning solutions for
COVID-19 detection in chest X-rays [64.02097860085202]
深層学習モデルは、胸部X線から新型コロナウイルスを識別するために開発された。
オープンソースデータのトレーニングやテストでは,結果は異例です。
データ分析とモデル評価は、人気のあるオープンソースデータセットであるCOVIDxが実際の臨床問題を代表していないことを示している。
論文 参考訳(メタデータ) (2021-09-14T10:59:11Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - FLANNEL: Focal Loss Based Neural Network Ensemble for COVID-19 Detection [61.04937460198252]
正常, 細菌性肺炎, 非ウイルス性肺炎, COVID-19の4型を有する2874例のX線画像データを構築した。
FLANNEL(Focal Loss Based Neural Ensemble Network)を提案する。
FLANNELは、すべての指標において、新型コロナウイルス識別タスクのベースラインモデルを一貫して上回っている。
論文 参考訳(メタデータ) (2020-10-30T03:17:31Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - COVIDNet-CT: A Tailored Deep Convolutional Neural Network Design for
Detection of COVID-19 Cases from Chest CT Images [75.74756992992147]
我々は、胸部CT画像からCOVID-19の症例を検出するのに適した、深層畳み込みニューラルネットワークアーキテクチャであるCOVIDNet-CTを紹介した。
また,中国生体情報センターが収集したCT画像データから得られたベンチマークCT画像データセットであるCOVIDx-CTも紹介した。
論文 参考訳(メタデータ) (2020-09-08T15:49:55Z) - Intra-model Variability in COVID-19 Classification Using Chest X-ray
Images [0.0]
12の共通ディープラーニングアーキテクチャにおいて,胸部X線におけるCOVID-19検出のためのベースライン性能指標と変数の定量化を行う。
最高のパフォーマンスモデルでは、新型コロナウイルスをホールドアウトセットで検出する際の偽陰性率は20点中3点である。
論文 参考訳(メタデータ) (2020-04-30T21:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。