論文の概要: A novel method using machine learning to integrate features from lung
and epicardial adipose tissue for detecting the severity of COVID-19
infection
- arxiv url: http://arxiv.org/abs/2301.12340v1
- Date: Sun, 29 Jan 2023 03:31:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 17:44:10.511050
- Title: A novel method using machine learning to integrate features from lung
and epicardial adipose tissue for detecting the severity of COVID-19
infection
- Title(参考訳): 新型コロナウイルス感染症の重症度を検出するための機械学習を用いた肺・心外膜組織の特徴の統合
- Authors: Ni Yao, Yanhui Tian, Daniel Gama das Neves, Chen Zhao, Claudio Tinoco
Mesquita, Wolney de Andrade Martins, Alair Augusto Sarmet Moreira Damas dos
Santos, Yanting Li, Chuang Han, Fubao Zhu, Neng Dai, Weihua Zhou
- Abstract要約: 心外膜脂肪組織(EAT)と肺を併用した放射線学的特徴は、Coronavirus Disease 2019(COVID-19)感染症の重症度の検出に徐々に価値を増している。
胸部CTから心内膜心内膜を抽出する深層学習法を開発した。
- 参考スコア(独自算出の注目度): 4.134065959264288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objectives: To investigate the value of radiomics features of epicardial
adipose tissue (EAT) combined with lung for detecting the severity of
Coronavirus Disease 2019 (COVID-19) infection. Methods: The retrospective study
included data from 515 COVID-19 patients (Cohort1: 415, cohort2: 100) from the
two centers between January 2020 and July 2020. A deep learning method was
developed to extract the myocardium and visceral pericardium from chest CTs,
and then a threshold was applied for automatic EAT extraction. Lung
segmentation was achieved according to a published method. Radiomics features
of both EAT and lung were extracted for the severity prediction. In a
derivation cohort (290, cohort1), univariate analysis and Pearson correlation
analysis were used to identify predictors of the severity of COVID-19. A
generalized linear regression model for detecting the severity of COVID-19 was
built in a derivation cohort and evaluated in internal (125, cohort1) and
external (100, cohort2) validation cohorts. Results: For EAT extraction, the
Dice similarity coefficients (DSC) of the two centers were 0.972 (0.011) and
0.968 (0.005), respectively. For severity detection, the AUC, net
reclassification improvement (NRI), and integrated discrimination improvement
(IDI) of the model with radiomics features of both lung and EAT increased by
0.09 (p<0.001), 22.4%, and 17.0%, respectively, compared with the model with
lung radiomics features, in the internal validation cohort. The AUC, NRI, and
IDI increased by 0.04 (p<0.001), 11.1%, and 8.0%, respectively, in the external
validation cohort. Conclusion: Radiomics features of EAT combined with lung
have incremental value in detecting the severity of COVID-19.
- Abstract(参考訳): 目的: コロナウイルス感染症(COVID-19)感染の重症度を検出するため, 肺と心房細動組織(EAT)の放射線学的特徴について検討する。
方法】2020年1月から2020年7月までの2施設で515人の新型コロナウイルス患者(Cohort1:415,Cohort2:100)のデータを調査した。
胸部CTから心筋と内臓を抽出する深層学習法を開発し,EATの自動抽出にしきい値を適用した。
肺分画は公表方法により達成された。
重症度予測のためにEATと肺の放射線学的特徴を抽出した。
導出コホート(290, cohort1)では, 単変量解析とピアソン相関解析を用いて, 新型コロナウイルスの重症度の予測因子を同定した。
導出コホート(125, cohort1)と外部(100, cohort2)のバリデーションコホートにおいて, 新型コロナウイルスの重症度を検出するための一般線形回帰モデルを構築した。
結果: EAT抽出では, 両中心のDice類似係数は0.972(0.011), 0.968(0.005)であった。
重症度検出では,AUC,net reclassification improvement (NRI), and integrated discrimination improvement (IDI) が, 内的検証コホートでは, それぞれ0.09 (p<0.001), 22.4%, 17.0%増加していた。
AUC, NRI, IDIはそれぞれ0.04(p<0.001), 11.1%, 8.0%増加した。
結論:eatと肺を併用した放射線学的特徴は,covid-19の重症度を漸増的に検出する。
関連論文リスト
- Improving Fairness of Automated Chest X-ray Diagnosis by Contrastive
Learning [19.948079693716075]
提案するAIモデルは、教師付きコントラスト学習を利用して、CXR診断におけるバイアスを最小限にする。
77,887個のCXR画像を用いたMIDRCデータセットと,112,120個のCXR画像を用いたNIH Chest X-rayデータセットの2つのデータセットについて評価を行った。
論文 参考訳(メタデータ) (2024-01-25T20:03:57Z) - Deep learning automated quantification of lung disease in pulmonary
hypertension on CT pulmonary angiography: A preliminary clinical study with
external validation [0.0]
本研究は,CTPA(CTPA)における肺テクスチャ分類のための人工知能(AI)深層学習モデルの開発を目的とする。
The Fleishner Society glossary of terms were classified as the "Normal", "Ground glass, "Ground glass with reticulation", "Honeycombing", and "Emphysema" were classified as the Fleishner Society glossary of terms。
各テクスチャに対する肺容積の分布は、肺全容のパッチを分類して算出し、肺小葉全体にわたって粗いテクスチャ分類を作成した。
論文 参考訳(メタデータ) (2023-03-20T14:06:32Z) - Automated assessment of disease severity of COVID-19 using artificial
intelligence with synthetic chest CT [13.44182694693376]
公開データセットを用いた胸部CT画像の合成にデータ拡張を取り入れた。
合成画像とマスクは、2D U-netニューラルネットワークのトレーニングに使われ、203のCOVID-19データセットでテストされた。
論文 参考訳(メタデータ) (2021-12-11T02:03:30Z) - Lung Ultrasound Segmentation and Adaptation between COVID-19 and
Community-Acquired Pneumonia [0.17159130619349347]
深層ニューラルネットワークを用いた超音声的B線分割作業に着目する。
我々は、COVID-19とCAP肺超音波データの両方を用いて、ネットワークをトレーニングする。
いずれかのタイプの肺疾患を推測する際には、様々な臨床応用が期待できる。
論文 参考訳(メタデータ) (2021-08-06T14:17:51Z) - Quantification of pulmonary involvement in COVID-19 pneumonia by means
of a cascade oftwo U-nets: training and assessment on multipledatasets using
different annotation criteria [83.83783947027392]
本研究は、新型コロナウイルスの肺病変の同定、セグメント化、定量化のために人工知能(AI)を活用することを目的とする。
2つのU-netのカスケードをベースとした自動解析パイプラインLungQuantシステムを開発した。
LungQuantシステムにおけるCT-Severity Score(CT-SS)の精度も評価した。
論文 参考訳(メタデータ) (2021-05-06T10:21:28Z) - FLANNEL: Focal Loss Based Neural Network Ensemble for COVID-19 Detection [61.04937460198252]
正常, 細菌性肺炎, 非ウイルス性肺炎, COVID-19の4型を有する2874例のX線画像データを構築した。
FLANNEL(Focal Loss Based Neural Ensemble Network)を提案する。
FLANNELは、すべての指標において、新型コロナウイルス識別タスクのベースラインモデルを一貫して上回っている。
論文 参考訳(メタデータ) (2020-10-30T03:17:31Z) - Integrative Analysis for COVID-19 Patient Outcome Prediction [53.11258640541513]
我々は、集中治療室入院の必要性を予測するために、人口統計、バイタルサイン、実験室の所見から、肺不透明度の放射能と非画像の特徴を組み合わせる。
また, 地域性肺炎を含む他の肺疾患にも適用できるが, 地域性肺炎に限らない。
論文 参考訳(メタデータ) (2020-07-20T19:08:50Z) - Machine Learning Automatically Detects COVID-19 using Chest CTs in a
Large Multicenter Cohort [43.99203831722203]
16施設2096例の胸部CT検査を行った。
新型コロナウイルスの分類のためのメートル法に基づくアプローチは、解釈可能な特徴を使用した。
深層学習に基づく分類器は,CT減衰から抽出した3D特徴と空域不透明度の確率分布を区別した。
論文 参考訳(メタデータ) (2020-06-09T00:40:35Z) - Dual-Sampling Attention Network for Diagnosis of COVID-19 from Community
Acquired Pneumonia [46.521323145636906]
胸部CT(Central Computed Tomography)において,地域肺炎(CAP)からCOVID-19を自動診断するデュアルサンプリングアテンションネットワークを開発した。
特に,3D畳み込みネットワーク(CNN)を用いた新しいオンラインアテンションモジュールを提案する。
我々のアルゴリズムは、受信機動作特性曲線(AUC)値0.944、精度87.5%、感度86.9%、特異度90.1%、F1スコア82.0%の領域で、COVID-19画像を識別することができる。
論文 参考訳(メタデータ) (2020-05-06T09:56:51Z) - Automated Quantification of CT Patterns Associated with COVID-19 from
Chest CT [48.785596536318884]
提案法は,非造影胸部CTを入力として,病変,肺,葉を3次元に分割する。
この方法では、肺の重症度と葉の関与度を2つの組み合わせて測定し、COVID-19の異常度と高不透明度の存在度を定量化する。
このアルゴリズムの評価は、カナダ、ヨーロッパ、米国からの200人の参加者(感染者100人、健康管理100人)のCTで報告されている。
論文 参考訳(メタデータ) (2020-04-02T21:49:14Z) - Severity Assessment of Coronavirus Disease 2019 (COVID-19) Using
Quantitative Features from Chest CT Images [54.919022945740515]
本研究の目的は,胸部CT画像に基づく新型コロナウイルスの重症度自動評価(非重症度または重症度)を実現することである。
ランダム・フォレスト(RF)モデルは、量的特徴に基づいて重症度(非重症度または重症度)を評価するために訓練される。
新型コロナウイルスの重症度を反映する可能性のあるいくつかの定量的特徴が明らかになった。
論文 参考訳(メタデータ) (2020-03-26T15:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。