論文の概要: Artificial intelligence application in lymphoma diagnosis: from Convolutional Neural Network to Vision Transformer
- arxiv url: http://arxiv.org/abs/2504.04025v1
- Date: Sat, 05 Apr 2025 02:33:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:13:48.442009
- Title: Artificial intelligence application in lymphoma diagnosis: from Convolutional Neural Network to Vision Transformer
- Title(参考訳): 悪性リンパ腫診断における人工知能の応用:畳み込みニューラルネットワークから視覚変換器へ
- Authors: Daniel Rivera, Jacob Huddin, Alexander Banerjee, Rongzhen Zhang, Brenda Mai, Hanadi El Achi, Jacob Armstrong, Amer Wahed, Andy Nguyen,
- Abstract要約: 我々は、視覚変換器の分類性能と、以前設計した同じデータセット上の畳み込みニューラルネットワークを比較した。
著者の知る限りでは、これは視覚変換器モデルと畳み込みニューラルネットワークモデルとの予測性能の初めての直接比較である。
- 参考スコア(独自算出の注目度): 34.04248949660201
- License:
- Abstract: Recently, vision transformers were shown to be capable of outperforming convolutional neural networks when pretrained on sufficiently large datasets. Vision transformer models show good accuracy on large scale datasets, with features of multi-modal training. Due to their promising feature detection, we aim to explore vision transformer models for diagnosis of anaplastic large cell lymphoma versus classical Hodgkin lymphoma using pathology whole slide images of HE slides. We compared the classification performance of the vision transformer to our previously designed convolutional neural network on the same dataset. The dataset includes whole slide images of HE slides for 20 cases, including 10 cases in each diagnostic category. From each whole slide image, 60 image patches having size of 100 by 100 pixels and at magnification of 20 were obtained to yield 1200 image patches, from which 90 percent were used for training, 9 percent for validation, and 10 percent for testing. The test results from the convolutional neural network model had previously shown an excellent diagnostic accuracy of 100 percent. The test results from the vision transformer model also showed a comparable accuracy at 100 percent. To the best of the authors' knowledge, this is the first direct comparison of predictive performance between a vision transformer model and a convolutional neural network model using the same dataset of lymphoma. Overall, convolutional neural network has a more mature architecture than vision transformer and is usually the best choice when large scale pretraining is not an available option. Nevertheless, our current study shows comparable and excellent accuracy of vision transformer compared to that of convolutional neural network even with a relatively small dataset of anaplastic large cell lymphoma and classical Hodgkin lymphoma.
- Abstract(参考訳): 近年、十分に大きなデータセットで事前訓練された場合、視覚変換器は畳み込みニューラルネットワークよりも優れた性能を発揮することが示されている。
ビジョントランスフォーマーモデルは、マルチモーダルトレーニングの機能を備えた大規模データセットにおいて、良好な精度を示す。
本研究の目的は,腫瘍性大細胞リンパ腫と古典的ホジキンリンパ腫の診断のための視覚トランスフォーマーモデルについて,HEスライドの病理像全体を用いて検討することである。
我々は、視覚変換器の分類性能と、以前設計した畳み込みニューラルネットワークを同一データセット上で比較した。
データセットには、診断カテゴリ毎に10ケースを含む20ケースのHEスライドの全スライドイメージが含まれている。
各スライド画像から、100×100ピクセル、20倍の60枚の画像パッチを取得し、1200枚の画像パッチを生成し、そこから90%をトレーニングに、9%を検証に、10%をテストに使用した。
畳み込みニューラルネットワークモデルによるテスト結果は、これまで100%の優れた診断精度を示していた。
ビジョントランスモデルによるテスト結果は、100%で同等の精度を示した。
著者の知る限りでは、同じリンパ腫のデータセットを用いた視覚変換器モデルと畳み込みニューラルネットワークモデルとの予測性能の初めての直接比較である。
全体として、畳み込みニューラルネットワークはビジョントランスフォーマーよりも成熟したアーキテクチャを持ち、大規模な事前トレーニングが使用できない場合、通常はベストチョイスである。
しかし, アナプラスティック大細胞リンパ腫と古典型ホジキンリンパ腫の比較的小さなデータセットであっても, 畳み込みニューラルネットワークと比較すると, 視覚トランスフォーマーの精度は高く, 精度も優れている。
関連論文リスト
- Evaluation of Vision Transformers for Multimodal Image Classification: A Case Study on Brain, Lung, and Kidney Tumors [0.0]
この研究は、いくつかのデータセットで、Swin TransformerやMaxViTを含むVision Transformersアーキテクチャのパフォーマンスを評価する。
脳、肺、腎臓の腫瘍で3つの画像のトレーニングセットを使用しました。
Swin Transformerは高い精度を提供し、腎臓腫瘍の分類で99.9%、組み合わせたデータセットで99.3%の精度を達成した。
論文 参考訳(メタデータ) (2025-02-08T10:35:51Z) - Advanced Hybrid Deep Learning Model for Enhanced Classification of Osteosarcoma Histopathology Images [0.0]
本研究は, 小児および思春期において最も多い骨癌である骨肉腫(OS)に焦点を当て, 腕と足の長い骨に影響を及ぼす。
我々は、OSの診断精度を向上させるために、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)を組み合わせた新しいハイブリッドモデルを提案する。
このモデルは精度99.08%、精度99.10%、リコール99.28%、F1スコア99.23%を達成した。
論文 参考訳(メタデータ) (2024-10-29T13:54:08Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Classification of Endoscopy and Video Capsule Images using CNN-Transformer Model [1.0994755279455526]
本研究では、トランスフォーマーと畳み込みニューラルネットワーク(CNN)の利点を組み合わせて分類性能を向上させるハイブリッドモデルを提案する。
GastroVisionデータセットでは,精度,リコール,F1スコア,精度,マシューズ相関係数(MCC)が0.8320,0.8386,0.8324,0.8386,0.8191であった。
論文 参考訳(メタデータ) (2024-08-20T11:05:32Z) - Comparative Performance Analysis of Transformer-Based Pre-Trained Models for Detecting Keratoconus Disease [0.0]
本研究は、変性眼疾患である角膜症(keratoconus)の診断のために、訓練済みの8つのCNNを比較した。
MobileNetV2は角膜と正常な症例を誤分類の少ない場合に最も正確なモデルであった。
論文 参考訳(メタデータ) (2024-08-16T20:15:24Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - A comparative study between vision transformers and CNNs in digital
pathology [1.71601014035428]
本研究は,4種類の組織を用いたデジタル病理像全体における腫瘍検出のための視覚変換器について検討する。
我々は、視覚変換器のDeiT-Tinyと最先端の畳み込みニューラルネットワークのResNet18を比較した。
その結果,ResNet18は腫瘍検出のための3種類の組織に対して,ResNet18よりも若干改善され,ResNet18は残りのタスクに対してわずかに改善された。
論文 参考訳(メタデータ) (2022-06-01T10:41:11Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Vision Transformers for Dense Prediction [77.34726150561087]
高密度予測タスクのバックボーンとして、畳み込みネットワークの代わりにビジョントランスを活用するアーキテクチャである高密度ビジョントランスを紹介します。
実験により,このアーキテクチャは高密度予測タスクにおいて大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2021-03-24T18:01:17Z) - Comparisons among different stochastic selection of activation layers
for convolutional neural networks for healthcare [77.99636165307996]
ニューラルネットワークのアンサンブルを用いて生体医用画像の分類を行う。
ReLU, leaky ReLU, Parametric ReLU, ELU, Adaptive Piecewice Linear Unit, S-Shaped ReLU, Swish, Mish, Mexican Linear Unit, Parametric Deformable Linear Unit, Soft Root Sign。
論文 参考訳(メタデータ) (2020-11-24T01:53:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。