論文の概要: Can Deep Learning Reliably Recognize Abnormality Patterns on Chest
X-rays? A Multi-Reader Study Examining One Month of AI Implementation in
Everyday Radiology Clinical Practice
- arxiv url: http://arxiv.org/abs/2305.10116v1
- Date: Wed, 17 May 2023 10:43:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 16:26:02.365309
- Title: Can Deep Learning Reliably Recognize Abnormality Patterns on Chest
X-rays? A Multi-Reader Study Examining One Month of AI Implementation in
Everyday Radiology Clinical Practice
- Title(参考訳): 深層学習は胸部x線上の異常パターンを確実に認識できるか?
日常放射線臨床における1ヶ月のAI実践に関するマルチリーダー研究
- Authors: Daniel Kvak, Anna Chromcov\'a, Petra Ovesn\'a, Jakub Dand\'ar, Marek
Biro\v{s}, Robert Hrub\'y, Daniel Dufek, Marija Pajdakovi\'c
- Abstract要約: 胸部X線上の7種類の放射線学的所見を検出・局所化するための深層学習に基づく自動検出アルゴリズム(DLAD)を開発した。
提案したDLADは高感度(ATE 1.000 (0.624-1.000), CON 0.864 (0.671-0.956), EFF 0.953 (0.887-0.983), LES 0.905 (0.715-0.978), SCE 1.000 (0.366-1.000), CMG 0.837 (0.711-0.917), PNO 0.875 (0.538-0.986)を実現した。
本研究の結果から,提案したDLADが日常生活への統合の可能性を秘めていることが明らかとなった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we developed a deep-learning-based automatic detection
algorithm (DLAD, Carebot AI CXR) to detect and localize seven specific
radiological findings (atelectasis (ATE), consolidation (CON), pleural effusion
(EFF), pulmonary lesion (LES), subcutaneous emphysema (SCE), cardiomegaly
(CMG), pneumothorax (PNO)) on chest X-rays (CXR). We collected 956 CXRs and
compared the performance of the DLAD with that of six individual radiologists
who assessed the images in a hospital setting. The proposed DLAD achieved high
sensitivity (ATE 1.000 (0.624-1.000), CON 0.864 (0.671-0.956), EFF 0.953
(0.887-0.983), LES 0.905 (0.715-0.978), SCE 1.000 (0.366-1.000), CMG 0.837
(0.711-0.917), PNO 0.875 (0.538-0.986)), even when compared to the radiologists
(LOWEST: ATE 0.000 (0.000-0.376), CON 0.182 (0.070-0.382), EFF 0.400
(0.302-0.506), LES 0.238 (0.103-0.448), SCE 0.000 (0.000-0.634), CMG 0.347
(0.228-0.486), PNO 0.375 (0.134-0.691), HIGHEST: ATE 1.000 (0.624-1.000), CON
0.864 (0.671-0.956), EFF 0.953 (0.887-0.983), LES 0.667 (0.456-0.830), SCE
1.000 (0.366-1.000), CMG 0.980 (0.896-0.999), PNO 0.875 (0.538-0.986)). The
findings of the study demonstrate that the suggested DLAD holds potential for
integration into everyday clinical practice as a decision support system,
effectively mitigating the false negative rate associated with junior and
intermediate radiologists.
- Abstract(参考訳): 本研究では,胸部x線上の7つの特定の放射線学的所見(atelectasis (ate), 圧密 (con), 胸水 (eff), 肺病変 (les), 皮下気腫 (sce),cardiomegaly (cmg), pneumothorax (pno)) を検出・局在化するための, ディープラーニングに基づく自動検出アルゴリズム (dlad, carebot ai cxr) を開発した。
956個のCXRを採取し, 当院で画像評価を行った6名の放射線科医とDLADの成績を比較した。
The proposed DLAD achieved high sensitivity (ATE 1.000 (0.624-1.000), CON 0.864 (0.671-0.956), EFF 0.953 (0.887-0.983), LES 0.905 (0.715-0.978), SCE 1.000 (0.366-1.000), CMG 0.837 (0.711-0.917), PNO 0.875 (0.538-0.986)), even when compared to the radiologists (LOWEST: ATE 0.000 (0.000-0.376), CON 0.182 (0.070-0.382), EFF 0.400 (0.302-0.506), LES 0.238 (0.103-0.448), SCE 0.000 (0.000-0.634), CMG 0.347 (0.228-0.486), PNO 0.375 (0.134-0.691), HIGHEST: ATE 1.000 (0.624-1.000), CON 0.864 (0.671-0.956), EFF 0.953 (0.887-0.983), LES 0.667 (0.456-0.830), SCE 1.000 (0.366-1.000), CMG 0.980 (0.896-0.999), PNO 0.875 (0.538-0.986)).
本研究の結果から,DLADは診断支援システムとして日常的な臨床実践に統合される可能性があり,中・中等放射線科医の偽陰性率を効果的に軽減することが示唆された。
関連論文リスト
- Deep Learning Segmentation of Ascites on Abdominal CT Scans for Automatic Volume Quantification [12.25110399510034]
本研究は,肝硬変腹水患者と卵巣癌患者の造影CT,非造影CTを施行した。
このモデルはThe Cancer Genome Atlas Ovarian Cancer data (平均年齢60歳+/-11[s.d.]; 143女)で訓練された。
その性能はDice係数,標準偏差,95%信頼区間で測定され,腹腔内腹水量に着目した。
論文 参考訳(メタデータ) (2024-06-23T01:32:53Z) - Detection of subclinical atherosclerosis by image-based deep learning on chest x-ray [86.38767955626179]
460胸部X線で冠状動脈カルシウム(CAC)スコアを予測する深層学習アルゴリズムを開発した。
AICACモデルの診断精度は, 曲線下領域(AUC)で評価された。
論文 参考訳(メタデータ) (2024-03-27T16:56:14Z) - Using YOLO v7 to Detect Kidney in Magnetic Resonance Imaging [1.1567496318601842]
医用画像ライブラリを用いた半教師ありアプローチによる腎臓検出のための高性能モデルを開発した。
モデルの一般化性を評価するには、さらなる外部検証が必要である。
論文 参考訳(メタデータ) (2024-02-08T16:54:20Z) - Improving Fairness of Automated Chest X-ray Diagnosis by Contrastive
Learning [19.948079693716075]
提案するAIモデルは、教師付きコントラスト学習を利用して、CXR診断におけるバイアスを最小限にする。
77,887個のCXR画像を用いたMIDRCデータセットと,112,120個のCXR画像を用いたNIH Chest X-rayデータセットの2つのデータセットについて評価を行った。
論文 参考訳(メタデータ) (2024-01-25T20:03:57Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Learning to diagnose cirrhosis from radiological and histological labels
with joint self and weakly-supervised pretraining strategies [62.840338941861134]
そこで本稿では, 放射線学者が注釈付けした大規模データセットからの転写学習を活用して, 小さい付加データセットで利用できる組織学的スコアを予測することを提案する。
我々は,肝硬変の予測を改善するために,異なる事前訓練法,すなわち弱い指導法と自己指導法を比較した。
この方法は、METAVIRスコアのベースライン分類を上回り、AUCが0.84、バランスの取れた精度が0.75に達する。
論文 参考訳(メタデータ) (2023-02-16T17:06:23Z) - DeepCOVID-Fuse: A Multi-modality Deep Learning Model Fusing Chest
X-Radiographs and Clinical Variables to Predict COVID-19 Risk Levels [8.593516170110203]
DeepCOVID-Fuseは、新型コロナウイルス患者のリスクレベルを予測するディープラーニング融合モデルである。
CXRと臨床変数で訓練されたDeepCOVID-Fuseの精度は0.658であり、AUCは0.842である。
論文 参考訳(メタデータ) (2023-01-20T20:54:25Z) - A Deep Learning Based Workflow for Detection of Lung Nodules With Chest
Radiograph [0.0]
CXRから肺領域を識別するセグメンテーションモデルを構築し,それを16個のパッチに分割した。
これらのラベル付きパッチを使用して、ディープニューラルネットワーク(DNN)モデルを微調整し、パッチをポジティブまたはネガティブに分類する。
論文 参考訳(メタデータ) (2021-12-19T16:19:46Z) - Controlling False Positive/Negative Rates for Deep-Learning-Based
Prostate Cancer Detection on Multiparametric MR images [58.85481248101611]
そこで本研究では,病変からスライスまでのマッピング機能に基づく,病変レベルのコスト感受性損失と付加的なスライスレベルの損失を組み込んだ新しいPCa検出ネットワークを提案する。
1) 病変レベルFNRを0.19から0.10に, 病変レベルFPRを1.03から0.66に減らした。
論文 参考訳(メタデータ) (2021-06-04T09:51:27Z) - Automated Quantification of CT Patterns Associated with COVID-19 from
Chest CT [48.785596536318884]
提案法は,非造影胸部CTを入力として,病変,肺,葉を3次元に分割する。
この方法では、肺の重症度と葉の関与度を2つの組み合わせて測定し、COVID-19の異常度と高不透明度の存在度を定量化する。
このアルゴリズムの評価は、カナダ、ヨーロッパ、米国からの200人の参加者(感染者100人、健康管理100人)のCTで報告されている。
論文 参考訳(メタデータ) (2020-04-02T21:49:14Z) - Machine-Learning-Based Multiple Abnormality Prediction with Large-Scale
Chest Computed Tomography Volumes [64.21642241351857]
19,993症例から36,316巻の胸部CTデータセットを収集,解析した。
自由テキストラジオグラフィーレポートから異常ラベルを自動的に抽出するルールベース手法を開発した。
胸部CTボリュームの多臓器・多臓器分類モデルも開発した。
論文 参考訳(メタデータ) (2020-02-12T00:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。