論文の概要: An Attention-Guided Deep Learning Approach for Classifying 39 Skin Lesion Types
- arxiv url: http://arxiv.org/abs/2501.05991v1
- Date: Fri, 10 Jan 2025 14:25:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-13 15:27:53.944052
- Title: An Attention-Guided Deep Learning Approach for Classifying 39 Skin Lesion Types
- Title(参考訳): 注意誘導型深層学習による39種類の皮膚病変の分類
- Authors: Sauda Adiv Hanum, Ashim Dey, Muhammad Ashad Kabir,
- Abstract要約: 本研究は,39種類の皮膚病変からなる包括的および多種多様なデータセットをキュレートすることにより,分野を前進させる。
MobileNetV2、Xception、InceptionV3、EfficientNetB1、Vision Transformerの5つの最先端ディープラーニングモデルが厳格に評価されている。
CBAMと統合されたビジョントランスフォーマーモデルは、93.46%の精度、94%の精度、93%のリコール、93%のF1スコア、93.67%の特異性を達成した。
- 参考スコア(独自算出の注目度): 0.9467360130705921
- License:
- Abstract: The skin, as the largest organ of the human body, is vulnerable to a diverse array of conditions collectively known as skin lesions, which encompass various dermatoses. Diagnosing these lesions presents significant challenges for medical practitioners due to the subtle visual differences that are often imperceptible to the naked eye. While not all skin lesions are life-threatening, certain types can act as early indicators of severe diseases, including skin cancers, underscoring the critical need for timely and accurate diagnostic methods. Deep learning algorithms have demonstrated remarkable potential in facilitating the early detection and prognosis of skin lesions. This study advances the field by curating a comprehensive and diverse dataset comprising 39 categories of skin lesions, synthesized from five publicly available datasets. Using this dataset, the performance of five state-of-the-art deep learning models -- MobileNetV2, Xception, InceptionV3, EfficientNetB1, and Vision Transformer - is rigorously evaluated. To enhance the accuracy and robustness of these models, attention mechanisms such as the Efficient Channel Attention (ECA) and the Convolutional Block Attention Module (CBAM) are incorporated into their architectures. Comprehensive evaluation across multiple performance metrics reveals that the Vision Transformer model integrated with CBAM outperforms others, achieving an accuracy of 93.46%, precision of 94%, recall of 93%, F1-score of 93%, and specificity of 93.67%. These results underscore the significant potential of the proposed system in supporting medical professionals with accurate and efficient prognostic tools for diagnosing a broad spectrum of skin lesions. The dataset and code used in this study can be found at https://github.com/akabircs/Skin-Lesions-Classification.
- Abstract(参考訳): 人体で最大の臓器である皮膚は、様々な皮膚疾患を含む皮膚病変と呼ばれる様々な疾患に脆弱である。
これらの病変の診断は、肉眼では認識できない微妙な視覚的差異のために、医療従事者にとって重大な課題となる。
すべての皮膚病変が生命を脅かすわけではないが、皮膚がんなどの重篤な疾患の早期の指標として機能し、タイムリーかつ正確な診断方法の必要性を強調できる。
深層学習アルゴリズムは皮膚病変の早期発見と予後を促進するのに顕著な可能性を示している。
本研究は、5つの公開データセットから合成された39種類の皮膚病変からなる包括的・多種多様なデータセットをキュレートすることにより、分野を前進させる。
このデータセットを使用して、MobileNetV2、Xception、InceptionV3、EfficientNetB1、Vision Transformerの5つの最先端ディープラーニングモデルのパフォーマンスを厳格に評価する。
これらのモデルの精度と堅牢性を高めるため、ECA(Efficient Channel Attention)やCBAM(Convolutional Block Attention Module)といった注意機構がアーキテクチャに組み込まれている。
総合的な評価では、CBAMと統合されたビジョントランスフォーマーモデルは、93.46%の精度、94%の精度、93%のリコール、93%のF1スコア、93.67%の特異性を達成した。
これらの結果は、幅広い皮膚病変を診断するための正確かつ効率的な予後ツールを備えた医療従事者を支援する上で、提案システムの有効性を裏付けるものである。
この研究で使用されるデータセットとコードはhttps://github.com/akabircs/Skin-Lesions-Classificationで見ることができる。
関連論文リスト
- Enhancing Skin Lesion Diagnosis with Ensemble Learning [15.569484546674776]
本研究では,HAM10000データセットを用いて皮膚病変の診断を支援する深層学習手法の実装について検討した。
分類精度をさらに高めるために,最大投票,平均投票,積み重ねを用いたアンサンブルモデルを開発し,0.803,0.82,0.83の精度を得た。
最適性能のアンサンブル学習モデルであるスタックリングに基づいて,カスタマイズアーキテクチャと微調整を取り入れたモデルであるSkinNetを開発し,0.867の精度と0.96のAUCを実現した。
論文 参考訳(メタデータ) (2024-09-06T16:19:01Z) - Enhancing Skin Disease Classification Leveraging Transformer-based Deep Learning Architectures and Explainable AI [2.3149142745203326]
皮膚疾患は世界の人口の3分の1以上に影響を与えるが、その影響は過小評価されることが多い。
深層学習技術は皮膚疾患の特定を含む様々なタスクに多くの可能性を示してきた。
この研究では、31のクラスを持つ皮膚疾患データセットを使用し、Vision Transformers、Swin Transformers、DivoV2のすべてのバージョンと比較した。
論文 参考訳(メタデータ) (2024-07-20T05:38:00Z) - Potential of Multimodal Large Language Models for Data Mining of Medical Images and Free-text Reports [51.45762396192655]
特にGemini-Vision-Series (Gemini) と GPT-4-Series (GPT-4) は、コンピュータビジョンのための人工知能のパラダイムシフトを象徴している。
本研究は,14の医用画像データセットを対象に,Gemini,GPT-4,および4つの一般的な大規模モデルの性能評価を行った。
論文 参考訳(メタデータ) (2024-07-08T09:08:42Z) - Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Generative models improve fairness of medical classifiers under
distribution shifts [49.10233060774818]
データから現実的な拡張を自動的に学習することは、生成モデルを用いてラベル効率の良い方法で可能であることを示す。
これらの学習の強化は、モデルをより堅牢で統計的に公平に配布できることを示した。
論文 参考訳(メタデータ) (2023-04-18T18:15:38Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Federated Learning Enables Big Data for Rare Cancer Boundary Detection [98.5549882883963]
6大陸にわたる71の医療機関のデータを含む,これまでで最大のフェデレーテッドML研究の結果を報告する。
グリオ芽腫の稀な疾患に対する腫瘍境界自動検出装置を作製した。
当科では, 外科的に標的とした腫瘍の悪性度を高めるために, 33%の改善率を示し, 腫瘍全体に対する23%の改善率を示した。
論文 参考訳(メタデータ) (2022-04-22T17:27:00Z) - Harvesting, Detecting, and Characterizing Liver Lesions from Large-scale
Multi-phase CT Data via Deep Dynamic Texture Learning [24.633802585888812]
ダイナミックコントラストCT(Dynamic contrast Computed Tomography)のための完全自動多段階肝腫瘍評価フレームワークを提案する。
本システムでは, 腫瘍提案検出, 腫瘍採取, 原発部位の選択, 深部テクスチャに基づく腫瘍評価の4段階からなる。
論文 参考訳(メタデータ) (2020-06-28T19:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。