論文の概要: Performance of Machine Learning Classification in Mammography Images
using BI-RADS
- arxiv url: http://arxiv.org/abs/2311.08493v1
- Date: Tue, 14 Nov 2023 19:41:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 18:28:15.301903
- Title: Performance of Machine Learning Classification in Mammography Images
using BI-RADS
- Title(参考訳): BI-RADSを用いたマンモグラフィ画像における機械学習分類の性能
- Authors: Malitha Gunawardhana, Norbert Zolek
- Abstract要約: 本研究は,乳房超音波画像の分類における各種分類モデルの分類精度について検討することを目的とする。
我々は1,540人の患者から得られた2,945枚のマンモグラフィー画像を用いた。
コンピュータ支援診断(CAD)システムの有効性と能力は, 76.39%, F1スコア67.94%であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This research aims to investigate the classification accuracy of various
state-of-the-art image classification models across different categories of
breast ultrasound images, as defined by the Breast Imaging Reporting and Data
System (BI-RADS). To achieve this, we have utilized a comprehensively assembled
dataset of 2,945 mammographic images sourced from 1,540 patients. In order to
conduct a thorough analysis, we employed six advanced classification
architectures, including VGG19 \cite{simonyan2014very}, ResNet50
\cite{he2016deep}, GoogleNet \cite{szegedy2015going}, ConvNext
\cite{liu2022convnet}, EfficientNet \cite{tan2019efficientnet}, and Vision
Transformers (ViT) \cite{dosovitskiy2020image}, instead of traditional machine
learning models. We evaluate models in three different settings: full
fine-tuning, linear evaluation and training from scratch. Our findings
demonstrate the effectiveness and capability of our Computer-Aided Diagnosis
(CAD) system, with a remarkable accuracy of 76.39\% and an F1 score of 67.94\%
in the full fine-tuning setting. Our findings indicate the potential for
enhanced diagnostic accuracy in the field of breast imaging, providing a solid
foundation for future endeavors aiming to improve the precision and reliability
of CAD systems in medical imaging.
- Abstract(参考訳): 本研究では,乳房超音波画像の分類精度を,乳房画像報告・データシステム(BI-RADS)が定義した乳房超音波画像の分類精度について検討する。
そこで我々は,1,540名の患者から得られた2,945枚のマンモグラフィー画像の総合的なデータセットを利用した。
VGG19 \cite{simonyan2014very}, ResNet50 \cite{he2016deep}, GoogleNet \cite{szegedy2015going}, ConvNext \cite{liu2022convnet}, EfficientNet \cite{tan2019efficientnet}, Vision Transformers (ViT) \cite{dosovitskiy2020image} の6つの高度な分類アーキテクチャを採用した。
モデルを3つの異なる設定で評価する: 完全な微調整、線形評価、スクラッチからのトレーニング。
本研究は,本システムの有効性と能力を示し,完全な微調整環境では,76.39\%,f1スコア67.94\%の精度を示した。
乳房画像検査の分野では診断精度が向上する可能性が示唆され,医療画像診断におけるcadシステムの精度と信頼性の向上を目指す今後の取り組みの基盤が確立された。
関連論文リスト
- Domain-Adaptive Pre-training of Self-Supervised Foundation Models for Medical Image Classification in Gastrointestinal Endoscopy [0.024999074238880488]
ビデオカプセル内視鏡は、消化管の詳細な画像を取得する非侵襲的な方法を提供することで、消化管内視鏡(GIE)の診断を変換した。
ビデオカプセル内視鏡は、消化管の詳細な画像を取得する非侵襲的な方法を提供することで、消化管内視鏡(GIE)の診断を変換した。
しかし、そのポテンシャルは、画像処理中に生成される画像の量によって制限されており、それは6~8時間で最大100万枚の画像を生成することができる。
論文 参考訳(メタデータ) (2024-10-21T22:52:25Z) - LoGra-Med: Long Context Multi-Graph Alignment for Medical Vision-Language Model [55.80651780294357]
最新の医療用マルチモーダル大規模言語モデル(med-MLLM)は、事前訓練において命令追従データを活用する。
LoGra-Medは新しいマルチグラフアライメントアルゴリズムで、画像のモダリティ、会話ベースの記述、拡張キャプション間でのトリプルト相関を強制する。
以上の結果から,LoGra-Medは医療用VQAの600K画像テキスト対に対してLAVA-Medと一致し,その10%でトレーニングした場合に有意に優れていた。
論文 参考訳(メタデータ) (2024-10-03T15:52:03Z) - Virchow: A Million-Slide Digital Pathology Foundation Model [34.38679208931425]
本稿では,コンピュータ病理学の基礎モデルであるVirchowを紹介する。
Virchowは、150万のヘマトキシリンとエオシン染色されたスライドイメージに基づいて、632万のパラメータをトレーニングしたビジョントランスフォーマーモデルである。
論文 参考訳(メタデータ) (2023-09-14T15:09:35Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - An Ensemble Method to Automatically Grade Diabetic Retinopathy with
Optical Coherence Tomography Angiography Images [4.640835690336653]
糖尿病網膜症解析チャレンジ(DRAC)2022から得られる糖尿病網膜症(DR)画像を自動的に評価するアンサンブル法を提案する。
まず、最先端の分類ネットワークを採用し、利用可能なデータセットの異なる分割でUW-OCTA画像のグレードをトレーニングする。
最終的に、25のモデルを取得し、そのうち上位16のモデルを選択し、アンサンブルして最終的な予測を生成する。
論文 参考訳(メタデータ) (2022-12-12T22:06:47Z) - COVID-19 Severity Classification on Chest X-ray Images [0.0]
本研究は,感染の重症度に基づいて画像の分類を行う。
ResNet-50モデルは精度95%、リコール(0.94)、F1スコア(0.92)、精度(0.91)で顕著な分類結果を得た。
論文 参考訳(メタデータ) (2022-05-25T12:01:03Z) - Ensemble of CNN classifiers using Sugeno Fuzzy Integral Technique for
Cervical Cytology Image Classification [1.6986898305640261]
頸がんの単細胞画像とスライド画像の分類を完全自動化するコンピュータ支援診断ツールを提案する。
我々は、Sugeno Fuzzy Integralを使用して、Inception v3、DenseNet-161、ResNet-34という3つの人気のあるディープラーニングモデルの意思決定スコアをアンサンブルする。
論文 参考訳(メタデータ) (2021-08-21T08:41:41Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - Y-Net for Chest X-Ray Preprocessing: Simultaneous Classification of
Geometry and Segmentation of Annotations [70.0118756144807]
この研究は、機械学習アルゴリズムに胸部X線入力のための一般的な前処理ステップを導入する。
VGG11エンコーダをベースとした改良Y-Netアーキテクチャを用いて,ラジオグラフィの幾何学的配向とセグメンテーションを同時に学習する。
対照画像の27.0%,34.9%に対し,95.8%,96.2%のアノテーションマスクが認められた。
論文 参考訳(メタデータ) (2020-05-08T02:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。