論文の概要: Deep Modeling and Optimization of Medical Image Classification
- arxiv url: http://arxiv.org/abs/2505.23040v1
- Date: Thu, 29 May 2025 03:27:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.651672
- Title: Deep Modeling and Optimization of Medical Image Classification
- Title(参考訳): 医用画像分類の深部モデリングと最適化
- Authors: Yihang Wu, Muhammad Owais, Reem Kateb, Ahmad Chaddad,
- Abstract要約: 4つのCNNと8つのViTを画像エンコーダとして用いた新しいCLIP変異体を導入し,脳がんと皮膚がんの分類を行った。
従来の機械学習(ML)手法を用いて、未確認領域データにおける深層モデルの一般化能力を向上する。
- 参考スコア(独自算出の注目度): 5.195343321287341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep models, such as convolutional neural networks (CNNs) and vision transformer (ViT), demonstrate remarkable performance in image classification. However, those deep models require large data to fine-tune, which is impractical in the medical domain due to the data privacy issue. Furthermore, despite the feasible performance of contrastive language image pre-training (CLIP) in the natural domain, the potential of CLIP has not been fully investigated in the medical field. To face these challenges, we considered three scenarios: 1) we introduce a novel CLIP variant using four CNNs and eight ViTs as image encoders for the classification of brain cancer and skin cancer, 2) we combine 12 deep models with two federated learning techniques to protect data privacy, and 3) we involve traditional machine learning (ML) methods to improve the generalization ability of those deep models in unseen domain data. The experimental results indicate that maxvit shows the highest averaged (AVG) test metrics (AVG = 87.03\%) in HAM10000 dataset with multimodal learning, while convnext\_l demonstrates remarkable test with an F1-score of 83.98\% compared to swin\_b with 81.33\% in FL model. Furthermore, the use of support vector machine (SVM) can improve the overall test metrics with AVG of $\sim 2\%$ for swin transformer series in ISIC2018. Our codes are available at https://github.com/AIPMLab/SkinCancerSimulation.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)や視覚変換器(ViT)のような深層モデルでは、画像分類において顕著な性能を示す。
しかし、これらのディープモデルは、データプライバシの問題のために医療領域では現実的ではない、微調整に大量のデータを必要とする。
さらに, 自然領域における比較言語画像事前訓練(CLIP)の実現可能性にも拘わらず, 医療分野でのCLIPの可能性は十分に検討されていない。
これらの課題に対処するために、私たちは3つのシナリオを検討しました。
1)脳腫瘍と皮膚がんの分類のための画像エンコーダとして4つのCNNと8つのViTを用いた新しいCLIP変異体を導入する。
2)データプライバシを保護するために,12のディープモデルと2つのフェデレーション学習手法を組み合わせる。
3) 従来の機械学習(ML)手法を用いて, 未確認領域データにおける深層モデルの一般化能力を向上する。
実験結果から,HAM10000データセットにおける最大平均(AVG = 87.03\%)をマルチモーダル学習で示し,convnext\_lではF1スコアが83.98\%であり,FLモデルでは81.33\%であった。
さらに、サポートベクターマシン(SVM)を使用することで、ISIC2018のswin transformerシリーズに対して$\sim 2\%$のAVGで全体のテストメトリクスを改善することができる。
私たちのコードはhttps://github.com/AIPMLab/SkinCancerSimulationで公開しています。
関連論文リスト
- Performance Evaluation of Deep Learning and Transformer Models Using Multimodal Data for Breast Cancer Classification [7.405837346783951]
乳がんの発生率と死亡率の上昇は、女性にとって大きな国際的懸念である。
深層学習(DL)は,BC分類において,ヒトの専門読者と比較して優れた診断性能を示した。
本研究では,BC分類のための多モードDLアーキテクチャを提案し,画像(マンモグラム,4ビュー)とテキストデータ(放射線学的レポート)を新しい社内データセットから利用した。
論文 参考訳(メタデータ) (2024-10-14T04:22:24Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - MedSegMamba: 3D CNN-Mamba Hybrid Architecture for Brain Segmentation [15.514511820130474]
我々は皮質下脳分割のための3DパッチベースのハイブリッドCNN-Mambaモデルを開発した。
モデルの性能をいくつかのベンチマークで検証した。
論文 参考訳(メタデータ) (2024-09-12T02:19:19Z) - Brain Tumor Radiogenomic Classification [1.8276368987462532]
2次分類によるグリオ芽腫のMGMTバイオマーカー状態の予測を目的としたRSNA-MICCAI脳腫瘍ラジオゲノミクス分類の試み
データセットはトレーニングセット、トレーニング中に使用された検証セット、最終評価時にのみ使用されるテストの3つの主要なコホートに分割される。
論文 参考訳(メタデータ) (2024-01-11T10:30:09Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - Stacking Ensemble Learning in Deep Domain Adaptation for Ophthalmic
Image Classification [61.656149405657246]
ドメイン適応は、十分なラベルデータを取得することが困難な画像分類タスクに有効である。
本稿では,3つのドメイン適応手法を拡張することで,アンサンブル学習を積み重ねるための新しい手法SELDAを提案する。
Age-Related Eye Disease Study (AREDS)ベンチマーク眼科データセットを用いた実験結果から,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2022-09-27T14:19:00Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。