論文の概要: SCREENet: A Multi-view Deep Convolutional Neural Network for
Classification of High-resolution Synthetic Mammographic Screening Scans
- arxiv url: http://arxiv.org/abs/2009.08563v3
- Date: Fri, 25 Sep 2020 19:36:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 02:52:29.545685
- Title: SCREENet: A Multi-view Deep Convolutional Neural Network for
Classification of High-resolution Synthetic Mammographic Screening Scans
- Title(参考訳): SCREENet:高分解能合成マンモグラフィスクリーニングスキャンの分類のための多視点深層畳み込みニューラルネットワーク
- Authors: Saeed Seyyedi, Margaret J. Wong, Debra M. Ikeda, Curtis P. Langlotz
- Abstract要約: 本研究では,高分解能合成マンモグラム解析のための多視点深層学習手法の開発と評価を行う。
画像解像度とトレーニングセットサイズが精度に与える影響を評価する。
- 参考スコア(独自算出の注目度): 3.8137985834223502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: To develop and evaluate the accuracy of a multi-view deep learning
approach to the analysis of high-resolution synthetic mammograms from digital
breast tomosynthesis screening cases, and to assess the effect on accuracy of
image resolution and training set size. Materials and Methods: In a
retrospective study, 21,264 screening digital breast tomosynthesis (DBT) exams
obtained at our institution were collected along with associated radiology
reports. The 2D synthetic mammographic images from these exams, with varying
resolutions and data set sizes, were used to train a multi-view deep
convolutional neural network (MV-CNN) to classify screening images into BI-RADS
classes (BI-RADS 0, 1 and 2) before evaluation on a held-out set of exams.
Results: Area under the receiver operating characteristic curve (AUC) for
BI-RADS 0 vs non-BI-RADS 0 class was 0.912 for the MV-CNN trained on the full
dataset. The model obtained accuracy of 84.8%, recall of 95.9% and precision of
95.0%. This AUC value decreased when the same model was trained with 50% and
25% of images (AUC = 0.877, P=0.010 and 0.834, P=0.009 respectively). Also, the
performance dropped when the same model was trained using images that were
under-sampled by 1/2 and 1/4 (AUC = 0.870, P=0.011 and 0.813, P=0.009
respectively).
Conclusion: This deep learning model classified high-resolution synthetic
mammography scans into normal vs needing further workup using tens of thousands
of high-resolution images. Smaller training data sets and lower resolution
images both caused significant decrease in performance.
- Abstract(参考訳): 目的:デジタル乳房トモシンセプション検診症例の高分解能合成マンモグラム解析のための多視点深層学習手法の精度を開発し,評価し,画像解像度とトレーニングセットサイズに及ぼす影響を評価すること。
対象と方法: 振り返り調査では, 当施設で得たデジタル乳房トモシンセプション(DBT)検査を21,264点, 関連する放射線検査とともに収集した。
これらの試験から得られた2次元合成マンモグラフィー画像は、様々な解像度とデータセットサイズで、画像のスクリーニングをBI-RADSクラス(BI-RADS 0, 1, 2)に分類するための多視点深層畳み込みニューラルネットワーク(MV-CNN)の訓練に使用された。
結果: BI-RADS 0 と非BI-RADS 0 の受信機動作特性曲線 (AUC) は 0.912 であった。
精度は84.8%、リコールは95.9%、精度は95.0%であった。
このAUC値は、同じモデルを50%と25%の画像でトレーニングした時に減少した(AUC = 0.877, P=0.010, 0.834, P=0.009)。
また、1/2と1/4のアンダーサンプリング画像(AUC = 0.870, P=0.011, 0.813, P=0.009)を用いて同じモデルをトレーニングすると、性能が低下した。
結論: このディープラーニングモデルは、高分解能合成マンモグラフィスキャンを正常に分類し、数万の高分解能画像を用いたさらなる作業を必要とする。
トレーニングデータセットが小さくなり、解像度の低い画像も性能が大幅に低下した。
関連論文リスト
- A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Comparison of retinal regions-of-interest imaged by OCT for the
classification of intermediate AMD [3.0171643773711208]
269名の中間AMD患者と115名の健常者から15744名のBスキャンを行った。
各サブセットについて、畳み込みニューラルネットワーク(VGG16アーキテクチャに基づいて、ImageNetで事前トレーニングされた)をトレーニングし、テストした。
モデルの性能は, 受信動作特性(AUROC), 精度, 感度, 特異性に基づいて評価した。
論文 参考訳(メタデータ) (2023-05-04T13:48:55Z) - An Ensemble Method to Automatically Grade Diabetic Retinopathy with
Optical Coherence Tomography Angiography Images [4.640835690336653]
糖尿病網膜症解析チャレンジ(DRAC)2022から得られる糖尿病網膜症(DR)画像を自動的に評価するアンサンブル法を提案する。
まず、最先端の分類ネットワークを採用し、利用可能なデータセットの異なる分割でUW-OCTA画像のグレードをトレーニングする。
最終的に、25のモデルを取得し、そのうち上位16のモデルを選択し、アンサンブルして最終的な予測を生成する。
論文 参考訳(メタデータ) (2022-12-12T22:06:47Z) - FundusQ-Net: a Regression Quality Assessment Deep Learning Algorithm for
Fundus Images Quality Grading [0.0]
緑内障、糖尿病網膜症、加齢に伴う黄斑変性は、視力障害や視覚障害の主な原因である。
このプロセスの鍵となるステップは、人間のオペレータや機械学習モデルによってこれらが解釈可能であることを確認するために、ベース画像の品質を自動的に見積もることである。
本稿では,この新たな尺度に対して,新たな基礎画像品質尺度とディープラーニング(DL)モデルを提案する。
論文 参考訳(メタデータ) (2022-05-02T21:01:34Z) - Development of an algorithm for medical image segmentation of bone
tissue in interaction with metallic implants [58.720142291102135]
本研究では,金属インプラントとの接触部における骨成長の計算アルゴリズムを開発した。
骨とインプラント組織はトレーニングデータセットに手動でセグメンテーションされた。
ネットワーク精度の面では、モデルは約98%に達した。
論文 参考訳(メタデータ) (2022-04-22T08:17:20Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Classification of Fracture and Normal Shoulder Bone X-Ray Images Using
Ensemble and Transfer Learning With Deep Learning Models Based on
Convolutional Neural Networks [0.0]
様々な理由で肩骨折が起こり、身体の他の関節よりも広く、より多様な動きの領域が生じる。
画像はX線(X線)、磁気共鳴画像(MRI)、CT(CT)デバイスを介して肩用のデジタルイメージング・通信(DICOM)フォーマットで生成される。
移動学習とアンサンブル学習を用いた畳み込みニューラルネットワーク(CNN)に基づく深層学習モデルを用いて,肩骨X線画像の分類と比較を行った。
論文 参考訳(メタデータ) (2021-01-31T19:20:04Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - A Deep Learning-Based Method for Automatic Segmentation of Proximal
Femur from Quantitative Computed Tomography Images [5.731199807877257]
我々は、エンドツーエンドの完全畳み込みニューラルネットワーク(CNN)であるV on-Netに基づく3次元画像分割法を開発した。
提案手法の有効性を評価する実験を行った。
論文 参考訳(メタデータ) (2020-06-09T21:16:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。