論文の概要: Residual Vision Transformer (ResViT) Based Self-Supervised Learning Model for Brain Tumor Classification
- arxiv url: http://arxiv.org/abs/2411.12874v1
- Date: Tue, 19 Nov 2024 21:42:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:12:48.384418
- Title: Residual Vision Transformer (ResViT) Based Self-Supervised Learning Model for Brain Tumor Classification
- Title(参考訳): 残像変換器(ResViT)を用いた脳腫瘍分類のための自己監督学習モデル
- Authors: Meryem Altin Karagoz, O. Ufuk Nalbantoglu, Geoffrey C. Fox,
- Abstract要約: 自己教師付き学習モデルは、限られたデータセット問題に対するデータ効率と注目すべき解決策を提供する。
本稿では2段階の脳腫瘍分類のための生成型SSLモデルを提案する。
提案されたモデルが最も精度が高く、T1シークエンスでBraTsデータセットで90.56%、Figshareで98.53%、Kaggle脳腫瘍データセットで98.47%を達成している。
- 参考スコア(独自算出の注目度): 0.08192907805418585
- License:
- Abstract: Deep learning has proven very promising for interpreting MRI in brain tumor diagnosis. However, deep learning models suffer from a scarcity of brain MRI datasets for effective training. Self-supervised learning (SSL) models provide data-efficient and remarkable solutions to limited dataset problems. Therefore, this paper introduces a generative SSL model for brain tumor classification in two stages. The first stage is designed to pre-train a Residual Vision Transformer (ResViT) model for MRI synthesis as a pretext task. The second stage includes fine-tuning a ResViT-based classifier model as a downstream task. Accordingly, we aim to leverage local features via CNN and global features via ViT, employing a hybrid CNN-transformer architecture for ResViT in pretext and downstream tasks. Moreover, synthetic MRI images are utilized to balance the training set. The proposed model performs on public BraTs 2023, Figshare, and Kaggle datasets. Furthermore, we compare the proposed model with various deep learning models, including A-UNet, ResNet-9, pix2pix, pGAN for MRI synthesis, and ConvNeXtTiny, ResNet101, DenseNet12, Residual CNN, ViT for classification. According to the results, the proposed model pretraining on the MRI dataset is superior compared to the pretraining on the ImageNet dataset. Overall, the proposed model attains the highest accuracy, achieving 90.56% on the BraTs dataset with T1 sequence, 98.53% on the Figshare, and 98.47% on the Kaggle brain tumor datasets. As a result, the proposed model demonstrates a robust, effective, and successful approach to handling insufficient dataset challenges in MRI analysis by incorporating SSL, fine-tuning, data augmentation, and combining CNN and ViT.
- Abstract(参考訳): ディープラーニングは、脳腫瘍の診断におけるMRIの解釈に非常に有望であることが証明されている。
しかし、ディープラーニングモデルは、効果的なトレーニングのための脳MRIデータセットの不足に悩まされている。
自己教師付き学習(SSL)モデルは、限られたデータセット問題に対するデータ効率と注目すべき解決策を提供する。
そこで本研究では2段階の脳腫瘍分類のための生成型SSLモデルを提案する。
第1段階は、MRI合成を前提タスクとして、Residual Vision Transformer(ResViT)モデルを事前訓練するように設計されている。
第2ステージでは、下流タスクとしてResViTベースの分類器モデルを微調整する。
そこで我々は,CNNによるローカル機能とViTによるグローバル機能を活用し,プレテキストおよびダウンストリームタスクにおけるResViTのためのハイブリッドCNNトランスフォーマアーキテクチャを活用することを目指している。
さらに、トレーニングセットのバランスをとるために合成MRI画像を利用する。
提案されたモデルは、パブリックなBraTs 2023、Figshare、Kaggleデータセットで実行される。
さらに,提案モデルとA-UNet, ResNet-9, pix2pix, pGAN, ConvNeXtTiny, ResNet101, DenseNet12, Residual CNN, ViTなどのディープラーニングモデルを比較した。
結果から,MRIデータセットの事前トレーニングは,ImageNetデータセットの事前トレーニングよりも優れていることがわかった。
全体として、提案されたモデルが最も精度が高く、T1シークエンスでBraTsデータセットで90.56%、Figshareで98.53%、Kaggle脳腫瘍データセットで98.47%を達成している。
その結果、提案モデルでは、SSL、微細チューニング、データ拡張、CNNとViTの組み合わせにより、MRI解析における不十分なデータセット問題に対処する、堅牢で効果的で成功したアプローチが示されている。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Predicting recovery following stroke: deep learning, multimodal data and
feature selection using explainable AI [3.797471910783104]
主な課題は、ニューロイメージングデータの非常に高次元性と、学習に利用可能なデータセットの比較的小さなサイズである。
我々は、MRIから抽出された関心領域を組み合わせた画像に対して、畳み込みニューラルネットワーク(CNN)を訓練する新しいアプローチを導入する。
病院のスキャナーの画像を用いて、現在のモデルがどのように改善され、さらに高いレベルの精度が得られるかを提案する。
論文 参考訳(メタデータ) (2023-10-29T22:31:20Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Efficiently Training Vision Transformers on Structural MRI Scans for
Alzheimer's Disease Detection [2.359557447960552]
ビジョントランスフォーマー(ViT)は近年、コンピュータビジョンアプリケーションのためのCNNの代替として登場した。
難易度に基づいて,脳神経画像の下流タスクに対するViTアーキテクチャの変種を検証した。
合成および実MRIスキャンで事前訓練した微調整型視覚変換器モデルを用いて、5%と9-10%の性能向上を実現した。
論文 参考訳(メタデータ) (2023-03-14T20:18:12Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - CNN-LSTM Based Multimodal MRI and Clinical Data Fusion for Predicting
Functional Outcome in Stroke Patients [1.5250925845050138]
脳卒中患者の管理において臨床結果予測は重要な役割を担っている。
機械学習の観点から見ると、大きな課題のひとつは異種データを扱うことだ。
本稿では,長い短期記憶(CNN-LSTM)に基づくアンサンブルモデルを提案する。
論文 参考訳(メタデータ) (2022-05-11T14:46:01Z) - A Novel Framework for Brain Tumor Detection Based on Convolutional
Variational Generative Models [6.726255259929498]
本稿では,脳腫瘍の検出と分類のための新しい枠組みを提案する。
提案フレームワークは、全体的な検出精度96.88%を取得する。
提案されたフレームワークは,脳腫瘍の正確な検出システムとして期待されている。
論文 参考訳(メタデータ) (2022-02-20T16:14:01Z) - A self-supervised learning strategy for postoperative brain cavity
segmentation simulating resections [46.414990784180546]
畳み込みニューラルネットワーク(CNN)は最先端の画像セグメンテーション技術である。
CNNはトレーニングに大量の注釈付きデータセットを必要とする。
自己教師型学習戦略は、トレーニングにラベルのないデータを活用することができる。
論文 参考訳(メタデータ) (2021-05-24T12:27:06Z) - Transfer Learning Enhanced Generative Adversarial Networks for
Multi-Channel MRI Reconstruction [3.5765797841178597]
深層学習に基づく生成敵ネットワーク(GAN)は、アンダーサンプルMRデータを用いて画像再構成を効果的に行うことができる。
k空間データの保存は臨床フローにはないため、モデルトレーニングのために何万もの生患者データを取得することは困難である。
本研究では,GANモデル(PI-GAN)と移動学習を組み合わせた並列イメージングに基づく3つの新しい応用について検討した。
論文 参考訳(メタデータ) (2021-05-17T21:28:00Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。