論文の概要: Virtual imaging trials improved the transparency and reliability of AI systems in COVID-19 imaging
- arxiv url: http://arxiv.org/abs/2308.09730v3
- Date: Sun, 27 Oct 2024 06:03:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 16:00:56.726758
- Title: Virtual imaging trials improved the transparency and reliability of AI systems in COVID-19 imaging
- Title(参考訳): 仮想画像検査は、新型コロナウイルス画像におけるAIシステムの透明性と信頼性を改善した
- Authors: Fakrul Islam Tushar, Lavsen Dahal, Saman Sotoudeh-Paima, Ehsan Abadi, W. Paul Segars, Ehsan Samei, Joseph Y. Lo,
- Abstract要約: 本研究は、CTと胸部X線撮影(CXR)を用いた新型コロナウイルス診断における畳み込みニューラルネットワーク(CNN)の使用に焦点を当てる。
複数のAIモデル、すなわち3D ResNet-likeと2D EfficientNetv2アーキテクチャを開発し、テストした。
最も多様なデータセットでトレーニングされたモデルでは、AUCがCTで0.73から0.76、CXRで0.70から0.73まで、最高の外部テスト性能を示した。
- 参考スコア(独自算出の注目度): 1.6040478776985583
- License:
- Abstract: The credibility of Artificial Intelligence (AI) models in medical imaging, particularly during the COVID-19 pandemic, has been challenged by reproducibility issues and obscured clinical insights. To address these concerns, we propose a Virtual Imaging Trials (VIT) framework, utilizing both clinical and simulated datasets to evaluate AI systems. This study focuses on using convolutional neural networks (CNNs) for COVID-19 diagnosis using computed tomography (CT) and chest radiography (CXR). We developed and tested multiple AI models, 3D ResNet-like and 2D EfficientNetv2 architectures, across diverse datasets. Our evaluation metrics included the area under the curve (AUC). Statistical analyses, such as the DeLong method for AUC confidence intervals, were employed to assess performance differences. Our findings demonstrate that VIT provides a robust platform for objective assessment, revealing significant influences of dataset characteristics, patient factors, and imaging physics on AI efficacy. Notably, models trained on the most diverse datasets showed the highest external testing performance, with AUC values ranging from 0.73 to 0.76 for CT and 0.70 to 0.73 for CXR. Internal testing yielded higher AUC values (0.77 to 0.85 for CT and 0.77 to 1.0 for CXR), highlighting a substantial drop in performance during external validation, which underscores the importance of diverse and comprehensive training and testing data. This approach enhances model transparency and reliability, offering nuanced insights into the factors driving AI performance and bridging the gap between experimental and clinical settings. The study underscores the potential of VIT to improve the reproducibility and clinical relevance of AI systems in medical imaging.
- Abstract(参考訳): 医療画像における人工知能(AI)モデルの信頼性は、特に新型コロナウイルス(COVID-19)パンデミックの間、再現性の問題や臨床的洞察の曖昧さによって問題視されている。
これらの問題に対処するために、臨床とシミュレーションの両方のデータセットを用いてAIシステムを評価する仮想イメージングトライアル(VIT)フレームワークを提案する。
本研究は、CTと胸部X線撮影(CXR)を用いて、新型コロナウイルスの診断に畳み込みニューラルネットワーク(CNN)を使用することに焦点を当てた。
複数のAIモデル、すなわち3D ResNet-likeと2D EfficientNetv2アーキテクチャを開発し、テストした。
評価基準は,曲線下面積 (AUC) であった。
AUC信頼区間のDeLong法などの統計分析を,性能差の評価に用いた。
以上の結果から,VITは客観的評価のための頑健なプラットフォームを提供し,データセットの特徴,患者要因,画像物理がAIの有効性に与える影響を明らかにした。
特に、最も多様なデータセットでトレーニングされたモデルは、AUCがCTで0.73から0.76、CXRで0.70から0.73まで、最高の外部テスト性能を示した。
内部テストはより高いAUC値(CTは0.77から0.85、CXRは0.77から1.0)を獲得し、外部検証におけるパフォーマンスの大幅な低下を強調し、多種多様な総合的なトレーニングとテストデータの重要性を浮き彫りにした。
このアプローチはモデルの透明性と信頼性を高め、AIのパフォーマンスを駆動する要因に関する微妙な洞察を提供し、実験的と臨床的設定のギャップを埋める。
この研究は、医用画像におけるAIシステムの再現性と臨床関連性を改善するためのVITの可能性を強調している。
関連論文リスト
- 2D and 3D Deep Learning Models for MRI-based Parkinson's Disease Classification: A Comparative Analysis of Convolutional Kolmogorov-Arnold Networks, Convolutional Neural Networks, and Graph Convolutional Networks [0.0]
本研究はパーキンソン病の診断にConvolutional Kolmogorov-Arnold Networks(ConvKANs)を適用した。
ConvKANは、構造MRIを用いたPD分類のために、学習可能なアクティベーション機能を畳み込み層に統合する。
医用画像用ConvKANの最初の3D実装について紹介し、その性能を畳み込みニューラルネットワーク(CNN)とグラフ畳み込みニューラルネットワーク(GCN)と比較した。
これらの知見は, PD検出に対するConvKANsの可能性を強調し, 脳の微妙な変化を捉える上での3D解析の重要性を強調し, データセット間の一般化の課題を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-07-24T16:04:18Z) - Comprehensive Multimodal Deep Learning Survival Prediction Enabled by a Transformer Architecture: A Multicenter Study in Glioblastoma [4.578027879885667]
本研究は,変圧器を用いた深層学習モデルにMR画像,臨床および分子病理学的データを統合することにより,グリオーマの生存率予測を改善することを目的とする。
このモデルは、自己教師付き学習技術を用いて、高次元MRI入力を効果的に符号化し、クロスアテンションを用いた非画像データと統合する。
論文 参考訳(メタデータ) (2024-05-21T17:44:48Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - Efficiently Training Vision Transformers on Structural MRI Scans for
Alzheimer's Disease Detection [2.359557447960552]
ビジョントランスフォーマー(ViT)は近年、コンピュータビジョンアプリケーションのためのCNNの代替として登場した。
難易度に基づいて,脳神経画像の下流タスクに対するViTアーキテクチャの変種を検証した。
合成および実MRIスキャンで事前訓練した微調整型視覚変換器モデルを用いて、5%と9-10%の性能向上を実現した。
論文 参考訳(メタデータ) (2023-03-14T20:18:12Z) - Robust and Efficient Medical Imaging with Self-Supervision [80.62711706785834]
医用画像AIの堅牢性とデータ効率を向上させるための統一表現学習戦略であるREMEDISを提案する。
様々な医療画像タスクを研究し, 振り返りデータを用いて3つの現実的な応用シナリオをシミュレートする。
論文 参考訳(メタデータ) (2022-05-19T17:34:18Z) - Virtual vs. Reality: External Validation of COVID-19 Classifiers using
XCAT Phantoms for Chest Computed Tomography [2.924350993741562]
CVIT-COVIDデータセットを作成し、シミュレーションされたCOVID-19および正常ファントムモデルからの180個の仮想画像計算断層撮影(CT)画像を作成した。
ウォータールー大学のオープンソース深層学習モデルの性能を多施設データを用いて評価した。
我々は,305枚のCT画像のオープンな臨床データに対して,実際の臨床データと仮想的な臨床データのパフォーマンスを比較検討した。
論文 参考訳(メタデータ) (2022-03-07T00:11:53Z) - Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications [72.52228843498193]
ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
論文 参考訳(メタデータ) (2021-12-14T21:16:52Z) - Advancing COVID-19 Diagnosis with Privacy-Preserving Collaboration in
Artificial Intelligence [79.038671794961]
我々はUCADI(Unified CT-COVID AI Diagnostic Initiative)を立ち上げ、各ホスト機関でAIモデルを分散的にトレーニングし、独立して実行することができる。
本研究は,中国とイギリスに所在する23の病院で採取した3,336例の胸部CT9,573例について検討した。
論文 参考訳(メタデータ) (2021-11-18T00:43:41Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。