論文の概要: Hybrid quantum convolutional neural networks model for COVID-19
prediction using chest X-Ray images
- arxiv url: http://arxiv.org/abs/2102.06535v1
- Date: Mon, 8 Feb 2021 18:22:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 06:23:16.256438
- Title: Hybrid quantum convolutional neural networks model for COVID-19
prediction using chest X-Ray images
- Title(参考訳): 胸部x線画像を用いたcovid-19予測のためのハイブリッド量子畳み込みニューラルネットワークモデル
- Authors: Essam H. Houssein, Zainab Abohashima, Mohamed Elhoseny, Waleed M.
Mohamed
- Abstract要約: 早期診断を支援するには、正確なパフォーマンスを備えた胸部X線(CXR)画像を介してCOVID-19を予測するモデルが必要です。
本稿では、ハイブリッド量子古典畳み込みニューラルネットワーク(HQCNN)モデルを用いて、ランダム量子回路(RQC)を用いてCOVID-19患者を検出する。
提案するhqcnnモデルは, 98.4%の精度と99.3%の感度で, 高い性能を達成した。
- 参考スコア(独自算出の注目度): 13.094997642327371
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the great efforts to find an effective way for COVID-19 prediction,
the virus nature and mutation represent a critical challenge to diagnose the
covered cases. However, developing a model to predict COVID-19 via Chest X-Ray
(CXR) images with accurate performance is necessary to help in early diagnosis.
In this paper, a hybrid quantum-classical convolutional Neural Networks (HQCNN)
model used the random quantum circuits (RQCs) as a base to detect COVID-19
patients with CXR images. A collection of 6952 CXR images, including 1161
COVID-19, 1575 normal, and 5216 pneumonia images, were used as a dataset in
this work. The proposed HQCNN model achieved higher performance with an
accuracy of 98.4\% and a sensitivity of 99.3\% on the first dataset cases.
Besides, it obtained an accuracy of 99\% and a sensitivity of 99.7\% on the
second dataset cases. Also, it achieved accuracy, and sensitivity of 88.6\%,
and 88.7\%, respectively, on the third multi-class dataset cases. Furthermore,
the HQCNN model outperforms various models in balanced accuracy, precision,
F1-measure, and AUC-ROC score. The experimental results are achieved by the
proposed model prove its ability in predicting positive COVID-19 cases.
- Abstract(参考訳): 新型コロナウイルスの予測に有効な方法を見つけるための大きな努力にもかかわらず、ウイルスの性質と変異は、カバーされたケースを診断する上で重要な課題である。
しかし,早期診断には胸部x線(cxr)像によるcovid-19予測モデルの開発が不可欠である。
本稿では,CXR画像を用いた新型コロナウイルスの診断にランダム量子回路(RQC)を用いたハイブリッド量子古典畳み込みニューラルネットワーク(HQCNN)モデルを提案する。
1161のCOVID-19、1575の正常、5216の肺炎画像を含む6952枚のCXR画像がこの研究のデータセットとして使用された。
提案するhqcnnモデルは,最初のデータセットでは98.4\%,感度99.3\%の精度で高い性能を達成した。
さらに、第2のデータセットの場合、99\%の精度と99.7\%の感度を得た。
また、第3のマルチクラスデータセットでは、それぞれ88.6\%と88.7\%の精度と感度を達成した。
さらに、hqcnnモデルは、バランスのとれた精度、精度、f1測定値、auc-rocスコアで様々なモデルを上回る。
実験結果は,新型ウイルスの陽性例の予測能力を示すモデルによって得られた。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Auto-Lesion Segmentation with a Novel Intensity Dark Channel Prior for
COVID-19 Detection [0.24578723416255752]
本研究は,他の肺疾患との鑑別を目的としたCTベースの放射線治療フレームワークを開発した。
画像は、新型コロナウイルス(COVID-19)、非新型コロナウイルス(non-COVID-19)、または正常の3つのクラスに分類される。
最高の性能分類モデルであるResidual Neural Network(Resnet-50)は、平均精度、精度、リコール、F1スコアが98.8%、99%、98%、98%に達した。
論文 参考訳(メタデータ) (2023-09-22T06:09:48Z) - CIRCA: comprehensible online system in support of chest X-rays-based
COVID-19 diagnosis [37.41181188499616]
深層学習技術は、新型コロナウイルスの迅速検出と疾患の進行のモニタリングに役立つ。
5つの異なるデータセットを使用して、モデルトレーニングのための23の799 CXRの代表的なデータセットを構築した。
The U-Net-based model was developed to identified a clinically relevant region of the CXR。
論文 参考訳(メタデータ) (2022-10-11T13:30:34Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Chest X-ray Image Phase Features for Improved Diagnosis of COVID-19
Using Convolutional Neural Network [2.752817022620644]
最近の研究で、新型コロナウイルス患者のX線写真には、新型コロナウイルスに関する情報が含まれていることが示されている。
胸部X線(CXR)は、高速な撮像時間、広範囲の可用性、低コスト、可搬性から注目されている。
本研究では、CXR画像から新型コロナウイルスの分類を改善するために、新しい多機能畳み込みニューラルネットワーク(CNN)アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-11-06T20:26:26Z) - FLANNEL: Focal Loss Based Neural Network Ensemble for COVID-19 Detection [61.04937460198252]
正常, 細菌性肺炎, 非ウイルス性肺炎, COVID-19の4型を有する2874例のX線画像データを構築した。
FLANNEL(Focal Loss Based Neural Ensemble Network)を提案する。
FLANNELは、すべての指標において、新型コロナウイルス識別タスクのベースラインモデルを一貫して上回っている。
論文 参考訳(メタデータ) (2020-10-30T03:17:31Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Using Deep Convolutional Neural Networks to Diagnose COVID-19 From Chest
X-Ray Images [2.2442606948134927]
このプロジェクトでは、COVID-19-CXR-Datasetという名称の、COVID-19 CXRのオープンソースデータセットを提示し、深い畳み込みニューラルネットワークモデルを導入する。
このモデルは740枚のテスト画像に検証を行い、精度87.3%、精度89.67パーセント、リコール84.46%を達成し、テストセットで100個のCOVID-19 X線画像のうち98個を正しく分類する。
論文 参考訳(メタデータ) (2020-07-19T15:47:37Z) - Adaptive Feature Selection Guided Deep Forest for COVID-19
Classification with Chest CT [49.09507792800059]
胸部CT画像に基づくCOVID-19分類のための適応的特徴選択ガイド付き深層林(AFS-DF)を提案する。
AFS-DF on COVID-19 data with 1495 patients of COVID-19 and 1027 patients of community acquired pneumonia (CAP)。
論文 参考訳(メタデータ) (2020-05-07T06:00:02Z) - CoroNet: A deep neural network for detection and diagnosis of COVID-19
from chest x-ray images [0.0]
CoroNetは、胸部X線画像からCOVID-19感染を自動的に検出するDeep Conceptional Neural Networkモデルである。
提案したモデルは全体の89.6%の精度を達成し、新型コロナウイルス患者の精度とリコール率は93%と98.2%である。
論文 参考訳(メタデータ) (2020-04-10T07:46:07Z) - COVID-Net: A Tailored Deep Convolutional Neural Network Design for
Detection of COVID-19 Cases from Chest X-Ray Images [93.0013343535411]
我々は,胸部X線(CXR)画像から新型コロナウイルスの症例を検出するための,深層畳み込みニューラルネットワーク設計であるCOVID-Netを紹介した。
著者たちの知る限りでは、COVID-NetはCXRイメージからCOVID-19を検出するための、最初のオープンソースネットワーク設計の1つである。
また,13,870人の患者を対象に,13,975個のCXR画像からなるオープンアクセスベンチマークデータセットであるCOVIDxも導入した。
論文 参考訳(メタデータ) (2020-03-22T12:26:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。