論文の概要: Deep Radiomic Analysis for Predicting Coronavirus Disease 2019 in
Computerized Tomography and X-ray Images
- arxiv url: http://arxiv.org/abs/2206.01903v1
- Date: Sat, 4 Jun 2022 04:10:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 18:04:27.298707
- Title: Deep Radiomic Analysis for Predicting Coronavirus Disease 2019 in
Computerized Tomography and X-ray Images
- Title(参考訳): コンピュータトモグラフィーとX線画像によるコロナウイルス病予測のための深部放射線分析
- Authors: Ahmad Chaddad, Lama Hassan, Christian Desrosiers
- Abstract要約: GMM-CNNと呼ばれるパラメトリックな特徴は、Coronavirus Disease 2019患者の胸部CTとX線スキャンに由来する。
以上の結果から,GMM-CNNは胸部CTおよびX線検査で新型コロナウイルスの予測を改善できる可能性が示唆された。
- 参考スコア(独自算出の注目度): 9.757905285805553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes to encode the distribution of features learned from a
convolutional neural network using a Gaussian Mixture Model. These parametric
features, called GMM-CNN, are derived from chest computed tomography and X-ray
scans of patients with Coronavirus Disease 2019. We use the proposed GMM-CNN
features as input to a robust classifier based on random forests to
differentiate between COVID-19 and other pneumonia cases. Our experiments
assess the advantage of GMM-CNN features compared to standard CNN
classification on test images. Using a random forest classifier (80\% samples
for training; 20\% samples for testing), GMM-CNN features encoded with two
mixture components provided a significantly better performance than standard
CNN classification (p\,$<$\,0.05). Specifically, our method achieved an
accuracy in the range of 96.00\,--\,96.70\% and an area under the ROC curve in
the range of 99.29\,--\,99.45\%, with the best performance obtained by
combining GMM-CNN features from both computed tomography and X-ray images. Our
results suggest that the proposed GMM-CNN features could improve the prediction
of COVID-19 in chest computed tomography and X-ray scans.
- Abstract(参考訳): 本稿では,ガウス混合モデルを用いて畳み込みニューラルネットワークから学習した特徴の分布を符号化する。
これらのパラメトリックな特徴は、GMM-CNNと呼ばれ、Coronavirus Disease 2019患者の胸部CTとX線スキャンに由来する。
提案するgmm-cnn機能をランダム林に基づくロバスト分類器の入力として使用し,covid-19と他の肺炎との鑑別を行った。
テスト画像の標準CNN分類と比較して,GMM-CNNの利点を評価する。
GMM-CNNは、ランダムな森林分類器(80 %のトレーニング用サンプル、20 %の試験用サンプル)を用いて、2 つの混合成分を符号化し、標準的な CNN 分類(p\,$<$\,0.05)よりもはるかに優れた性能を示した。
具体的には、96.00\,--,96.70\%の範囲と、99.29\,--,99.45\%の範囲において、計算トモグラフィーとX線画像の両方からGMM-CNN特徴を合成して得られる最高の性能を達成した。
以上の結果から,GMM-CNNは胸部CTおよびX線検査で新型コロナウイルスの予測を改善できる可能性が示唆された。
関連論文リスト
- Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - A Joint Graph and Image Convolution Network for Automatic Brain Tumor
Segmentation [1.3381749415517017]
本稿では,脳腫瘍(BraTS)2021の課題として,関節グラフ畳み込み・画像畳み込みニューラルネットワークを提案する。
我々は、まず、グラフニューラルネットワーク(GNN)によって分割された、異なる画像領域からなるグラフとして、各脳をモデル化する。
GNNによって同定される腫瘍体積は、最終セグメンテーションを生成する単純な(ボクセル)畳み込みニューラルネットワーク(CNN)によってさらに洗練される。
論文 参考訳(メタデータ) (2021-09-12T18:16:59Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Evolving Deep Convolutional Neural Network by Hybrid Sine-Cosine and
Extreme Learning Machine for Real-time COVID19 Diagnosis from X-Ray Images [0.5249805590164902]
ディープ・コンボリューショナル・ネットワーク(CNN)は、COVID-19陽性症例の診断に応用できるツールとみなすことができる。
本稿では,最後の完全接続層ではなく,ELM(Extreme Learning Machine)を用いることを提案する。
提案手法は、COVID-Xray-5kデータセットで98.83%の最終的な精度で比較ベンチマークを上回っている。
論文 参考訳(メタデータ) (2021-05-14T19:40:16Z) - Hybrid quantum convolutional neural networks model for COVID-19
prediction using chest X-Ray images [13.094997642327371]
早期診断を支援するには、正確なパフォーマンスを備えた胸部X線(CXR)画像を介してCOVID-19を予測するモデルが必要です。
本稿では、ハイブリッド量子古典畳み込みニューラルネットワーク(HQCNN)モデルを用いて、ランダム量子回路(RQC)を用いてCOVID-19患者を検出する。
提案するhqcnnモデルは, 98.4%の精度と99.3%の感度で, 高い性能を達成した。
論文 参考訳(メタデータ) (2021-02-08T18:22:53Z) - Chest X-ray Image Phase Features for Improved Diagnosis of COVID-19
Using Convolutional Neural Network [2.752817022620644]
最近の研究で、新型コロナウイルス患者のX線写真には、新型コロナウイルスに関する情報が含まれていることが示されている。
胸部X線(CXR)は、高速な撮像時間、広範囲の可用性、低コスト、可搬性から注目されている。
本研究では、CXR画像から新型コロナウイルスの分類を改善するために、新しい多機能畳み込みニューラルネットワーク(CNN)アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-11-06T20:26:26Z) - FLANNEL: Focal Loss Based Neural Network Ensemble for COVID-19 Detection [61.04937460198252]
正常, 細菌性肺炎, 非ウイルス性肺炎, COVID-19の4型を有する2874例のX線画像データを構築した。
FLANNEL(Focal Loss Based Neural Ensemble Network)を提案する。
FLANNELは、すべての指標において、新型コロナウイルス識別タスクのベースラインモデルを一貫して上回っている。
論文 参考訳(メタデータ) (2020-10-30T03:17:31Z) - Y-Net for Chest X-Ray Preprocessing: Simultaneous Classification of
Geometry and Segmentation of Annotations [70.0118756144807]
この研究は、機械学習アルゴリズムに胸部X線入力のための一般的な前処理ステップを導入する。
VGG11エンコーダをベースとした改良Y-Netアーキテクチャを用いて,ラジオグラフィの幾何学的配向とセグメンテーションを同時に学習する。
対照画像の27.0%,34.9%に対し,95.8%,96.2%のアノテーションマスクが認められた。
論文 参考訳(メタデータ) (2020-05-08T02:16:17Z) - A Light CNN for detecting COVID-19 from CT scans of the chest [9.088303226909279]
OVID-19は世界保健機関(WHO)によってパンデミックと宣言された世界規模の病気である。
深層学習は医学画像や畳み込みニューラルネットワーク(CNN)にも広く使われており、CT画像の分類にも使われている。
我々は,SqueezeNetのモデルに基づく軽量CNN設計を提案し,新型コロナウイルスのCT画像の効率的な識別を行う。
論文 参考訳(メタデータ) (2020-04-24T07:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。