論文の概要: Y-Net for Chest X-Ray Preprocessing: Simultaneous Classification of
Geometry and Segmentation of Annotations
- arxiv url: http://arxiv.org/abs/2005.03824v1
- Date: Fri, 8 May 2020 02:16:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 12:25:08.226035
- Title: Y-Net for Chest X-Ray Preprocessing: Simultaneous Classification of
Geometry and Segmentation of Annotations
- Title(参考訳): 胸部X線前処理のためのY-Net:幾何の同時分類とアノテーションのセグメンテーション
- Authors: John McManigle, Raquel Bartz, Lawrence Carin
- Abstract要約: この研究は、機械学習アルゴリズムに胸部X線入力のための一般的な前処理ステップを導入する。
VGG11エンコーダをベースとした改良Y-Netアーキテクチャを用いて,ラジオグラフィの幾何学的配向とセグメンテーションを同時に学習する。
対照画像の27.0%,34.9%に対し,95.8%,96.2%のアノテーションマスクが認められた。
- 参考スコア(独自算出の注目度): 70.0118756144807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the last decade, convolutional neural networks (CNNs) have emerged as
the leading algorithms in image classification and segmentation. Recent
publication of large medical imaging databases have accelerated their use in
the biomedical arena. While training data for photograph classification
benefits from aggressive geometric augmentation, medical diagnosis --
especially in chest radiographs -- depends more strongly on feature location.
Diagnosis classification results may be artificially enhanced by reliance on
radiographic annotations. This work introduces a general pre-processing step
for chest x-ray input into machine learning algorithms. A modified Y-Net
architecture based on the VGG11 encoder is used to simultaneously learn
geometric orientation (similarity transform parameters) of the chest and
segmentation of radiographic annotations. Chest x-rays were obtained from
published databases. The algorithm was trained with 1000 manually labeled
images with augmentation. Results were evaluated by expert clinicians, with
acceptable geometry in 95.8% and annotation mask in 96.2% (n=500), compared to
27.0% and 34.9% respectively in control images (n=241). We hypothesize that
this pre-processing step will improve robustness in future diagnostic
algorithms.
- Abstract(参考訳): 過去10年間で、畳み込みニューラルネットワーク(CNN)が画像分類とセグメンテーションの主要なアルゴリズムとして登場した。
近年の大規模医用画像データベースは, 医療分野における利用を加速している。
画像分類のためのトレーニングデータは、積極的な幾何学的拡張による恩恵を受ける一方、医学的診断(特に胸部X線写真)は特徴位置に強く依存する。
診断分類の結果は放射線学的注釈に依存することで人工的に向上する可能性がある。
この研究は、機械学習アルゴリズムに胸部X線入力のための一般的な前処理ステップを導入する。
VGG11エンコーダに基づく改良Y-Netアーキテクチャは、胸部の幾何方向(類似度変換パラメータ)とX線アノテーションのセグメンテーションを同時に学習するために使用される。
胸部x線は公開データベースから得られた。
アルゴリズムは1000個の手動ラベル付き画像でトレーニングされた。
その結果, 95.8%, アノテーションマスクは96.2% (n=500), 対照画像では27.0%, 34.9% (n=241) であった。
この前処理ステップが将来の診断アルゴリズムのロバスト性を改善すると仮定する。
関連論文リスト
- Modifying the U-Net's Encoder-Decoder Architecture for Segmentation of Tumors in Breast Ultrasound Images [0.0]
U-Netとエンコーダデコーダアーキテクチャに基づくニューラルネットワーク(NN)を提案する。
我々のネットワーク(CResU-Net)は82.88%、77.5%、90.3%、98.4%のDice類似係数を得た。
論文 参考訳(メタデータ) (2024-09-01T07:47:48Z) - Medical Image Analysis for Detection, Treatment and Planning of Disease using Artificial Intelligence Approaches [1.6505331001136514]
人工知能技術を用いたX線画像のセグメンテーションのためのフレームワークについて論じる。
提案手法は16のバッチサイズと50のエポックを持つよく知られたパラメータに関して,より優れた性能を発揮する。
SegNetとResidual Unetの検証精度、精度、リコールの値は、それぞれ0.9815、0.9699、0.9574、0.9901、0.9864、0.9750である。
論文 参考訳(メタデータ) (2024-05-18T13:43:43Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Classification of COVID-19 in Chest X-ray Images Using Fusion of Deep
Features and LightGBM [0.0]
本稿では,本論文で報告されている他の手法よりも高速かつ高精度な新しい手法を提案する。
提案手法はDenseNet169とMobileNet Deep Neural Networksを組み合わせて患者のX線画像の特徴を抽出する。
この方法は2クラス(COVID-19、Healthy)と複数クラス(COVID-19、Healthy、Pneumonia)で98.54%と91.11%の精度を達成した。
論文 参考訳(メタデータ) (2022-06-09T14:56:24Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Development of an algorithm for medical image segmentation of bone
tissue in interaction with metallic implants [58.720142291102135]
本研究では,金属インプラントとの接触部における骨成長の計算アルゴリズムを開発した。
骨とインプラント組織はトレーニングデータセットに手動でセグメンテーションされた。
ネットワーク精度の面では、モデルは約98%に達した。
論文 参考訳(メタデータ) (2022-04-22T08:17:20Z) - DenseNet approach to segmentation and classification of dermatoscopic
skin lesions images [0.0]
本稿では,2つのアーキテクチャを用いた皮膚病変の分類と分類の改善手法を提案する。
U-NetとDenseNet121の組み合わせは、皮膚内視鏡画像解析において許容できる結果を提供する。
DenseNet121ネットワークでは、それぞれ79.49%と93.11%の精度で癌と非癌サンプルが検出された。
論文 参考訳(メタデータ) (2021-10-09T19:12:23Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - VerSe: A Vertebrae Labelling and Segmentation Benchmark for
Multi-detector CT Images [121.31355003451152]
大規模Vertebrae Challenge(VerSe)は、2019年と2020年に開催されたMICCAI(International Conference on Medical Image Computing and Computer Assisted Intervention)と共同で設立された。
本評価の結果を報告するとともに,脊椎レベル,スキャンレベル,および異なる視野での性能変化について検討した。
論文 参考訳(メタデータ) (2020-01-24T21:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。