論文の概要: DICOM Imaging Router: An Open Deep Learning Framework for Classification
of Body Parts from DICOM X-ray Scans
- arxiv url: http://arxiv.org/abs/2108.06490v1
- Date: Sat, 14 Aug 2021 08:31:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 09:10:20.149201
- Title: DICOM Imaging Router: An Open Deep Learning Framework for Classification
of Body Parts from DICOM X-ray Scans
- Title(参考訳): DICOMイメージングルータ:DICOM X線スキャンから身体部位を分類するためのオープンディープラーニングフレームワーク
- Authors: Hieu H. Pham, Dung V. Do, Ha Q. Nguyen
- Abstract要約: 未知のDICOMX線画像を5つの解剖学的グループに分類するために,深部CNNをデプロイするDICOMイメージングルータを提案する。
11,263画像のトレーニングセットを用いて最先端の深部CNNのセットを訓練し,身体部位の分類において優れた性能を示した。
- 参考スコア(独自算出の注目度): 0.618778092044887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: X-ray imaging in DICOM format is the most commonly used imaging modality in
clinical practice, resulting in vast, non-normalized databases. This leads to
an obstacle in deploying AI solutions for analyzing medical images, which often
requires identifying the right body part before feeding the image into a
specified AI model. This challenge raises the need for an automated and
efficient approach to classifying body parts from X-ray scans. Unfortunately,
to the best of our knowledge, there is no open tool or framework for this task
to date. To fill this lack, we introduce a DICOM Imaging Router that deploys
deep CNNs for categorizing unknown DICOM X-ray images into five anatomical
groups: abdominal, adult chest, pediatric chest, spine, and others. To this
end, a large-scale X-ray dataset consisting of 16,093 images has been collected
and manually classified. We then trained a set of state-of-the-art deep CNNs
using a training set of 11,263 images. These networks were then evaluated on an
independent test set of 2,419 images and showed superior performance in
classifying the body parts. Specifically, our best performing model achieved a
recall of 0.982 (95% CI, 0.977-0.988), a precision of 0.985 (95% CI,
0.975-0.989) and a F1-score of 0.981 (95% CI, 0.976-0.987), whilst requiring
less computation for inference (0.0295 second per image). Our external validity
on 1,000 X-ray images shows the robustness of the proposed approach across
hospitals. These remarkable performances indicate that deep CNNs can accurately
and effectively differentiate human body parts from X-ray scans, thereby
providing potential benefits for a wide range of applications in clinical
settings. The dataset, codes, and trained deep learning models from this study
will be made publicly available on our project website at https://vindr.ai/.
- Abstract(参考訳): dicom形式のx線イメージングは、臨床でもっとも一般的に使用されるイメージングモダリティであり、膨大な非正規化データベースを生み出している。
これにより、医療画像を分析するためのAIソリューションのデプロイに障害が生じ、しばしば、特定のAIモデルにイメージを投入する前に、適切な身体部分を特定する必要がある。
この課題は、X線スキャンから身体部分を分類する自動化的で効率的なアプローチの必要性を高める。
残念ながら、私たちの知る限りでは、このタスクにはオープンなツールやフレームワークはありません。
この欠点を補うために,未知のDICOM X線像を腹部,成人胸,小児胸,脊椎などの5つの解剖学的グループに分類するためのDICOM Imaging Routerを導入する。
この目的のために、16,093枚の画像からなる大規模なX線データセットが収集され、手動で分類された。
11,263枚の画像のトレーニングセットを使用して、最先端の深層CNNのセットをトレーニングした。
これらのネットワークは、2,419枚の独立したテストセットで評価され、ボディパーツの分類において優れた性能を示した。
具体的には, 0.982 (95% CI, 0.977-0.988), 0.985 (95% CI, 0.975-0.989), F1スコア 0.981 (95% CI, 0.976-0.987) のリコールを実現した。
1000枚のx線画像に対する外部的妥当性は,提案手法の病院間における堅牢性を示している。
これらの顕著なパフォーマンスは、深部CNNが人体部分とX線スキャンを正確にかつ効果的に区別できることを示し、臨床現場での幅広い応用に潜在的に有益であることを示している。
この研究から得られたデータセット、コード、トレーニングされたディープラーニングモデルは、プロジェクトのWebサイトで公開されます。
関連論文リスト
- TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Medical Image Analysis for Detection, Treatment and Planning of Disease using Artificial Intelligence Approaches [1.6505331001136514]
人工知能技術を用いたX線画像のセグメンテーションのためのフレームワークについて論じる。
提案手法は16のバッチサイズと50のエポックを持つよく知られたパラメータに関して,より優れた性能を発揮する。
SegNetとResidual Unetの検証精度、精度、リコールの値は、それぞれ0.9815、0.9699、0.9574、0.9901、0.9864、0.9750である。
論文 参考訳(メタデータ) (2024-05-18T13:43:43Z) - CT-GLIP: 3D Grounded Language-Image Pretraining with CT Scans and Radiology Reports for Full-Body Scenarios [53.94122089629544]
我々は,CT-GLIP(Grounded Language- Image Pretraining with CT scans)を導入する。
本手法は,104臓器にわたる17,702症例を対象に,44,011例の臓器レベルの視覚テキストペアからなるマルチモーダルCTデータセットを用いて訓練し,自然言語を用いて臓器と異常をゼロショットで識別できることを実証した。
論文 参考訳(メタデータ) (2024-04-23T17:59:01Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - COVID-19 Severity Classification on Chest X-ray Images [0.0]
本研究は,感染の重症度に基づいて画像の分類を行う。
ResNet-50モデルは精度95%、リコール(0.94)、F1スコア(0.92)、精度(0.91)で顕著な分類結果を得た。
論文 参考訳(メタデータ) (2022-05-25T12:01:03Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Towards Clinical Practice: Design and Implementation of Convolutional
Neural Network-Based Assistive Diagnosis System for COVID-19 Case Detection
from Chest X-Ray Images [0.0]
本研究では,胸部X線(CXR)画像から新型コロナウイルスを検出するために,畳み込みニューラルネットワーク(CNN)ベースのCarebot Covidアプリの現実的な実装を提案する。
本研究では,DenseNetとResNetアーキテクチャに基づくディープラーニングモデルを用いて,精度0.981のCXR画像からSARS-CoV-2を検出し,0.962のリコールと0.993のAPを再現した。
論文 参考訳(メタデータ) (2022-03-20T16:44:20Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Image Embedding and Model Ensembling for Automated Chest X-Ray
Interpretation [0.0]
我々は、自動胸部X線診断モデルを開発するための機械学習アプローチをいくつか提示および研究する。
特に,chexpertデータセット上で複数の畳み込みニューラルネットワーク(cnn)をトレーニングした。
学習したCNNを用いてCXR画像の埋め込みを計算し、2組のツリーベース分類器を訓練した。
論文 参考訳(メタデータ) (2021-05-05T14:48:59Z) - Fused Deep Convolutional Neural Network for Precision Diagnosis of
COVID-19 Using Chest X-Ray Images [0.0]
複数のニューラルネットワークを微調整することで、新型コロナウイルスと正常者の胸部X線スキャンを正確に分類するコンピュータ支援診断(CAD)を提案する。
k倍のクロスバリデーションとベージングアンサンブルを用いることで、99.7%の精度と100%の感度が得られる。
論文 参考訳(メタデータ) (2020-09-15T02:27:20Z) - Y-Net for Chest X-Ray Preprocessing: Simultaneous Classification of
Geometry and Segmentation of Annotations [70.0118756144807]
この研究は、機械学習アルゴリズムに胸部X線入力のための一般的な前処理ステップを導入する。
VGG11エンコーダをベースとした改良Y-Netアーキテクチャを用いて,ラジオグラフィの幾何学的配向とセグメンテーションを同時に学習する。
対照画像の27.0%,34.9%に対し,95.8%,96.2%のアノテーションマスクが認められた。
論文 参考訳(メタデータ) (2020-05-08T02:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。