論文の概要: COVID-VIT: Classification of COVID-19 from CT chest images based on
vision transformer models
- arxiv url: http://arxiv.org/abs/2107.01682v1
- Date: Sun, 4 Jul 2021 16:55:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 00:59:42.113336
- Title: COVID-VIT: Classification of COVID-19 from CT chest images based on
vision transformer models
- Title(参考訳): COVID-VIT:視覚トランスフォーマーモデルに基づくCT胸部画像からのCOVID-19の分類
- Authors: Xiaohong Gao, Yu Qian, Alice Gao
- Abstract要約: この論文は、CT肺画像に基づいて、非COVIDからCOVIDを分類するMIA-COV19の課題に対応している。
主な目的は、胸部X線写真から新型コロナウイルスの診断を予測することである。
注目モデルに基づく視覚変換器(ViT)と従来の畳み込みニューラルネットワーク(CNN)に基づくDenseNetの2つのディープラーニング手法について検討した。
- 参考スコア(独自算出の注目度): 0.8594140167290099
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper is responding to the MIA-COV19 challenge to classify COVID from
non-COVID based on CT lung images. The COVID-19 virus has devastated the world
in the last eighteen months by infecting more than 182 million people and
causing over 3.9 million deaths. The overarching aim is to predict the
diagnosis of the COVID-19 virus from chest radiographs, through the development
of explainable vision transformer deep learning techniques, leading to
population screening in a more rapid, accurate and transparent way. In this
competition, there are 5381 three-dimensional (3D) datasets in total, including
1552 for training, 374 for evaluation and 3455 for testing. While most of the
data volumes are in axial view, there are a number of subjects' data are in
coronal or sagittal views with 1 or 2 slices are in axial view. Hence, while 3D
data based classification is investigated, in this competition, 2D images
remains the main focus. Two deep learning methods are studied, which are vision
transformer (ViT) based on attention models and DenseNet that is built upon
conventional convolutional neural network (CNN). Initial evaluation results
based on validation datasets whereby the ground truth is known indicate that
ViT performs better than DenseNet with F1 scores being 0.76 and 0.72
respectively. Codes are available at GitHub at
<https://github/xiaohong1/COVID-ViT>.
- Abstract(参考訳): この論文は、CT肺画像に基づいて、非COVIDからCOVIDを分類するMIA-COV19チャレンジに対応している。
新型コロナウイルス(COVID-19)は1億8200万人以上の人に感染し、390万人以上の死者を出した。
新型コロナウイルスの診断を胸部X線写真から予測することを目的としており、説明可能な視覚変換器の深層学習技術を開発し、より迅速で正確で透明な方法で個体検診を行う。
このコンペでは、トレーニング用1552、評価用374、テスト用3455など、合計5381の3Dデータセットが提供されている。
データボリュームのほとんどが軸方向のビューであるが、1つまたは2つのスライスを持つ冠状または矢状方向のビューは軸方向のビューである。
したがって、3Dデータに基づく分類が研究されているが、このコンペでは2D画像が中心となっている。
注目モデルに基づく視覚変換器(ViT)と従来の畳み込みニューラルネットワーク(CNN)に基づくDenseNetの2つのディープラーニング手法について検討した。
検証データセットに基づく初期評価結果は、VTがそれぞれ0.76と0.72のスコアを持つDenseNetよりも優れていることを示している。
コードはgithubのhttps://github/xiaohong1/covid-vit>で入手できる。
関連論文リスト
- Evaluating Generalizability of Deep Learning Models Using
Indian-COVID-19 CT Dataset [5.398550081886242]
臨床環境でのCTスキャン画像の自動処理のためのma-chine learning (ML)アプローチは、公開されているCOVID-19データの限定的で偏りのあるサブセットに基づいて訓練される。
これにより、トレーニング中にモデルに見られない外部データセット上で、これらのモデルの一般化性に関する懸念が持ち上がった。
これらの問題に対処するために、この研究では、最も大きなパブリックリポジトリの1つから得られた確認されたCOVID-19データからのCTスキャン画像を用いて、機械学習モデルのトレーニングと内部バリデーションにCOVIDx CT 2Aを使用した。
論文 参考訳(メタデータ) (2022-12-28T16:23:18Z) - Cov3d: Detection of the presence and severity of COVID-19 from CT scans
using 3D ResNets [0.0]
Cov3dは、胸部CTスキャンからCOVID19の存在と重症度を検出するための3次元畳み込みニューラルネットワークである。
COVID19の重症度を分類する作業では、マクロf1スコアが0.7552に達する。
論文 参考訳(メタデータ) (2022-07-05T05:22:38Z) - COVIDx CXR-3: A Large-Scale, Open-Source Benchmark Dataset of Chest
X-ray Images for Computer-Aided COVID-19 Diagnostics [69.55060769611916]
RT-PCR検査の補助的スクリーニング戦略としての胸部X線撮影(CXR)の利用が増加している。
CXRイメージングに基づく新型コロナウイルススクリーニングのための多くの視覚知覚モデルが提案されている。
我々は、COVID-19コンピュータビジョン研究を支援するために、CXR画像の大規模なベンチマークデータセットであるCOVIDx CXR-3を紹介する。
論文 参考訳(メタデータ) (2022-06-08T04:39:44Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - COV-ECGNET: COVID-19 detection using ECG trace images with deep
convolutional neural network [0.40631409309544836]
本研究は、心電図(ECG)からCOVID-19を検出するために、ディープ畳み込みニューラルネットワーク(CNN)モデルを使用することの可能性を検討する。
本研究は、深層学習技術を用いて、COVID-19および他の心血管疾患(CVD)を検出した。
論文 参考訳(メタデータ) (2021-06-01T12:33:08Z) - Randomly Initialized Convolutional Neural Network for the Recognition of
COVID-19 using X-ray Images [0.0]
新型コロナウイルス(COVID-19)は世界的なパンデミックと宣言されている。
COVID-19を検出するための潜在的な解決策の1つは、ディープラーニング(DL)モデルを使用して胸部X線画像を分析することである。
本研究では,新型コロナウイルスの認識のための新しいCNNアーキテクチャを提案する。
提案したCNNモデルでは、それぞれ94%と99%の精度で、COVID-19データセットが強化されている。
論文 参考訳(メタデータ) (2021-05-17T23:40:37Z) - COVID-Net CT-2: Enhanced Deep Neural Networks for Detection of COVID-19
from Chest CT Images Through Bigger, More Diverse Learning [70.92379567261304]
胸部CT画像からのCOVID-19検出のための深部ニューラルネットワークであるCOVID-Net CT-2を導入する。
説明力を活用して、COVID-Net CT-2の意思決定行動を調査します。
結果は有望であり、コンピュータ支援型COVID-19アセスメントの有効なツールとして、ディープニューラルネットワークの強い可能性を示唆している。
論文 参考訳(メタデータ) (2021-01-19T03:04:09Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Automated Chest CT Image Segmentation of COVID-19 Lung Infection based
on 3D U-Net [0.0]
新型コロナウイルス(COVID-19)は世界中の何十億もの生命に影響を与え、公衆医療に大きな影響を与えている。
新型コロナウイルス感染地域のための革新的な自動セグメンテーションパイプラインを提案する。
本手法は,複数の前処理手法を実行することにより,一意およびランダムな画像パッチをオンザフライで生成する訓練に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-24T17:29:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。