論文の概要: Comparative Analysis of Vision Transformers and Convolutional Neural Networks for Medical Image Classification
- arxiv url: http://arxiv.org/abs/2507.21156v1
- Date: Thu, 24 Jul 2025 19:40:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.00251
- Title: Comparative Analysis of Vision Transformers and Convolutional Neural Networks for Medical Image Classification
- Title(参考訳): 医用画像分類のための視覚変換器と畳み込みニューラルネットワークの比較解析
- Authors: Kunal Kawadkar,
- Abstract要約: ビジョントランスフォーマー (ViT) はコンピュータビジョンに革命をもたらしたが、医療画像における従来の畳み込みニューラルネットワーク (CNN) と比較すると、その効果は未発見のままである。
本研究は,胸部X線肺炎検出,脳腫瘍分類,皮膚癌メラノーマ検出の3つの重要な医用画像のCNNおよびViTアーキテクチャの比較分析を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emergence of Vision Transformers (ViTs) has revolutionized computer vision, yet their effectiveness compared to traditional Convolutional Neural Networks (CNNs) in medical imaging remains under-explored. This study presents a comprehensive comparative analysis of CNN and ViT architectures across three critical medical imaging tasks: chest X-ray pneumonia detection, brain tumor classification, and skin cancer melanoma detection. We evaluated four state-of-the-art models - ResNet-50, EfficientNet-B0, ViT-Base, and DeiT-Small - across datasets totaling 8,469 medical images. Our results demonstrate task-specific model advantages: ResNet-50 achieved 98.37% accuracy on chest X-ray classification, DeiT-Small excelled at brain tumor detection with 92.16% accuracy, and EfficientNet-B0 led skin cancer classification at 81.84% accuracy. These findings provide crucial insights for practitioners selecting architectures for medical AI applications, highlighting the importance of task-specific architecture selection in clinical decision support systems.
- Abstract(参考訳): ビジョントランスフォーマー(ViT)の出現はコンピュータビジョンに革命をもたらしたが、医用画像における従来の畳み込みニューラルネットワーク(CNN)と比較すると、その効果は未解明のままである。
本研究は,胸部X線肺炎検出,脳腫瘍分類,皮膚癌黒色腫検出の3つの重要な医療的課題について,CNNとViTアーキテクチャの総合的比較分析を行った。
ResNet-50、EfficientNet-B0、ViT-Base、DeiT-Smallの4つの最先端モデルを、合計8,469の医療画像で評価した。
ResNet-50は胸部X線分類において98.37%の精度を達成し、DeiT-Smallは92.16%の精度で脳腫瘍検出に優れ、EfficientNet-B0は81.84%の精度で皮膚がん分類を導いた。
これらの知見は、臨床意思決定支援システムにおけるタスク固有のアーキテクチャ選択の重要性を強調し、医療AIアプリケーションのためのアーキテクチャを選択する実践者にとって重要な洞察を提供する。
関連論文リスト
- Comparative Analysis of Vision Transformers and Traditional Deep Learning Approaches for Automated Pneumonia Detection in Chest X-Rays [1.2310316230437004]
肺炎は、特に新型コロナウイルスなどの疾患によって引き起こされた場合、迅速かつ正確な診断を必要とする世界的な健康上の重要な課題である。
本研究は,胸部X線を用いた自動肺炎検出のための従来の機械学習と最先端の深層学習の総合的な比較を行った。
我々はビジョントランスフォーマー、特にクロスビットアーキテクチャが88.25%の精度と99.42%のリコールで優れた性能を発揮することを示した。
論文 参考訳(メタデータ) (2025-07-11T16:26:24Z) - Lung Disease Detection with Vision Transformers: A Comparative Study of Machine Learning Methods [0.0]
本研究では,機械学習における最先端アーキテクチャであるビジョントランスフォーマー(ViT)の胸部X線解析への応用について検討する。
胸部X線像と肺分画領域に焦点を当てた2つのViT法の比較検討を行った。
論文 参考訳(メタデータ) (2024-11-18T08:40:25Z) - Advanced Hybrid Deep Learning Model for Enhanced Classification of Osteosarcoma Histopathology Images [0.0]
本研究は, 小児および思春期において最も多い骨癌である骨肉腫(OS)に焦点を当て, 腕と足の長い骨に影響を及ぼす。
我々は、OSの診断精度を向上させるために、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)を組み合わせた新しいハイブリッドモデルを提案する。
このモデルは精度99.08%、精度99.10%、リコール99.28%、F1スコア99.23%を達成した。
論文 参考訳(メタデータ) (2024-10-29T13:54:08Z) - Evaluating Deep Learning Models for Breast Cancer Classification: A Comparative Study [9.392940888377423]
Vision Transformer (ViT) モデルは、その注意に基づくメカニズムにより、94%の検証精度を達成した。
本研究は, 臨床現場における乳癌診断の精度と効率を高めるため, 高度な機械学習手法の可能性を示すものである。
論文 参考訳(メタデータ) (2024-08-29T18:49:32Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Liver Tumor Screening and Diagnosis in CT with Pixel-Lesion-Patient
Network [37.931408083443074]
Pixel-Lesion-pAtient Network (PLAN) は, アンカークエリの改善と前景のサンプリング損失による各病変の分割と分類を行う。
PLANは95%と96%の患者レベルの感度と特異性を達成している。
造影CTでは, 病変レベルの検出精度, リコール, 分類精度は92%, 89%, 86%であり, CNNやトランスフォーマーよりも優れていた。
論文 参考訳(メタデータ) (2023-07-17T06:21:45Z) - Brain Tumor MRI Classification using a Novel Deep Residual and Regional
CNN [0.0]
Res-BRNet Convolutional Neural Network (CNN) は脳腫瘍(磁気共鳴イメージング)MRIの診断に有用である。
開発されたRes-BRNetの効率は、KaggleとFigshareから収集された標準データセットに基づいて評価される。
実験により、Res-BRNetは標準CNNモデルよりも優れ、優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-29T20:14:13Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - COVID-Net CT-2: Enhanced Deep Neural Networks for Detection of COVID-19
from Chest CT Images Through Bigger, More Diverse Learning [70.92379567261304]
胸部CT画像からのCOVID-19検出のための深部ニューラルネットワークであるCOVID-Net CT-2を導入する。
説明力を活用して、COVID-Net CT-2の意思決定行動を調査します。
結果は有望であり、コンピュータ支援型COVID-19アセスメントの有効なツールとして、ディープニューラルネットワークの強い可能性を示唆している。
論文 参考訳(メタデータ) (2021-01-19T03:04:09Z) - Residual Attention U-Net for Automated Multi-Class Segmentation of
COVID-19 Chest CT Images [46.844349956057776]
新型コロナウイルス感染症(COVID-19)は世界中で急速に広がり、公衆衛生や経済に大きな影響を及ぼしている。
新型コロナウイルスによる肺感染症を効果的に定量化する研究はいまだにない。
複数の新型コロナウイルス感染症領域の自動セグメンテーションのための新しいディープラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-12T16:24:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。