論文の概要: Visual Bias and Interpretability in Deep Learning for Dermatological Image Analysis
- arxiv url: http://arxiv.org/abs/2508.04573v1
- Date: Wed, 06 Aug 2025 15:57:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.804867
- Title: Visual Bias and Interpretability in Deep Learning for Dermatological Image Analysis
- Title(参考訳): 皮膚画像解析のための深層学習における視覚バイアスと解釈可能性
- Authors: Enam Ahmed Taufik, Abdullah Khondoker, Antara Firoz Parsa, Seraj Al Mahmud Mostafa,
- Abstract要約: 本研究では,多型皮膚疾患分類のためのディープラーニングフレームワークを提案する。
我々は、事前学習された畳み込みニューラルネットワーク(DenseNet201, Efficient-NetB5)とトランスフォーマーベースモデル(ViT, Swin Transformer, DinoV2 Large)の性能をベンチマークする。
その結果、RGB前処理のDinoV2は全変種で最高精度(最大93%)とF1スコアを達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate skin disease classification is a critical yet challenging task due to high inter-class similarity, intra-class variability, and complex lesion textures. While deep learning-based computer-aided diagnosis (CAD) systems have shown promise in automating dermatological assessments, their performance is highly dependent on image pre-processing and model architecture. This study proposes a deep learning framework for multi-class skin disease classification, systematically evaluating three image pre-processing techniques: standard RGB, CMY color space transformation, and Contrast Limited Adaptive Histogram Equalization (CLAHE). We benchmark the performance of pre-trained convolutional neural networks (DenseNet201, Efficient-NetB5) and transformer-based models (ViT, Swin Transformer, DinoV2 Large) using accuracy and F1-score as evaluation metrics. Results show that DinoV2 with RGB pre-processing achieves the highest accuracy (up to 93%) and F1-scores across all variants. Grad-CAM visualizations applied to RGB inputs further reveal precise lesion localization, enhancing interpretability. These findings underscore the importance of effective pre-processing and model choice in building robust and explainable CAD systems for dermatology.
- Abstract(参考訳): 皮膚疾患の正確な分類は、高いクラス間類似性、クラス内変動性、複雑な病変のテクスチャのため、非常に難しい課題である。
深層学習に基づくコンピュータ支援診断(CAD)システムでは皮膚科的評価の自動化が期待されているが,その性能は画像前処理やモデルアーキテクチャに大きく依存している。
本研究では, 標準RGB, CMY色空間変換, コントラスト限定適応ヒストグラム等化(CLAHE)の3つの画像前処理手法を体系的に評価し, マルチクラス皮膚疾患分類のためのディープラーニングフレームワークを提案する。
我々は,事前学習した畳み込みニューラルネットワーク(DenseNet201,Efficient-NetB5)とトランスフォーマーベースモデル(ViT,Swin Transformer,DinoV2 Large)のパフォーマンスを,精度とF1スコアを評価指標としてベンチマークした。
その結果、RGB前処理のDinoV2は全変種で最高精度(最大93%)とF1スコアを達成した。
RGB入力に適用されたGrad-CAM視覚化により、より正確な病変の局在が明らかになり、解釈可能性も向上した。
これらの知見は, 皮膚科のための堅牢で説明可能なCADシステム構築において, 効果的な前処理とモデル選択の重要性を浮き彫りにした。
関連論文リスト
- Swin Transformer for Robust CGI Images Detection: Intra- and Inter-Dataset Analysis across Multiple Color Spaces [1.024113475677323]
本研究の目的は,コンピュータ生成画像(CGI)と実際のデジタル画像とを区別することである。
自然画像と合成画像の正確な識別のためのSwin Transformerベースのモデルを提案する。
モデルの性能はすべてのカラースキームでテストされ、RGBカラースキームはデータセットごとに最も正確である。
論文 参考訳(メタデータ) (2025-05-22T05:43:40Z) - Machine-learning for photoplethysmography analysis: Benchmarking feature, image, and signal-based approaches [1.1011387049911827]
光胸腺撮影は、様々な臨床応用に適した、広く用いられている非侵襲的な生理学的センシング技術である。
機械学習手法は、機械学習手法によってますます支持され、最も適切な入力表現とモデル選択の疑問が提起される。
本稿では,3種類の入力表現,解釈可能な特徴,画像表現,生波形を網羅した総合的なベンチマーク研究により,このギャップに対処する。
論文 参考訳(メタデータ) (2025-02-27T10:17:16Z) - GS-TransUNet: Integrated 2D Gaussian Splatting and Transformer UNet for Accurate Skin Lesion Analysis [44.99833362998488]
本稿では,2次元ガウススプラッティングとTransformer UNetアーキテクチャを組み合わせた皮膚癌自動診断手法を提案する。
セグメンテーションと分類の精度は著しく向上した。
この統合は、新しいベンチマークをこの分野に設定し、マルチタスク医療画像解析手法のさらなる研究の可能性を強調している。
論文 参考訳(メタデータ) (2025-02-23T23:28:47Z) - Enhancing Skin Disease Classification Leveraging Transformer-based Deep Learning Architectures and Explainable AI [2.3149142745203326]
皮膚疾患は世界の人口の3分の1以上に影響を与えるが、その影響は過小評価されることが多い。
深層学習技術は皮膚疾患の特定を含む様々なタスクに多くの可能性を示してきた。
この研究では、31のクラスを持つ皮膚疾患データセットを使用し、Vision Transformers、Swin Transformers、DivoV2のすべてのバージョンと比較した。
論文 参考訳(メタデータ) (2024-07-20T05:38:00Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - LesionAid: Vision Transformers-based Skin Lesion Generation and
Classification [0.0]
本研究では,ViTとViTGANに基づいて皮膚病変を分類する新しいマルチクラス予測フレームワークを提案する。
フレームワークは、ViTGAN、画像処理、説明可能なAIの4つの主要なフェーズで構成されている。
論文 参考訳(メタデータ) (2023-02-02T13:52:54Z) - Machine Learning Method for Functional Assessment of Retinal Models [5.396946042201311]
本稿では,網膜モデルの機能評価(FA)について紹介する。
我々は従来の機械学習分類器に網膜モデルにより生成されたRCC応答を供給したFAのための機械学習手法を提案する。
その結果,データセットの構造の違いは網膜モデルの性能に大きく違いがあることが判明した。
論文 参考訳(メタデータ) (2022-02-05T00:35:38Z) - Cross-Site Severity Assessment of COVID-19 from CT Images via Domain
Adaptation [64.59521853145368]
CT画像によるコロナウイルス病2019(COVID-19)の早期かつ正確な重症度評価は,集中治療単位のイベント推定に有効である。
ラベル付きデータを拡張し、分類モデルの一般化能力を向上させるためには、複数のサイトからデータを集約する必要がある。
この課題は、軽度の感染症と重度の感染症の集団不均衡、部位間のドメイン分布の相違、不均一な特徴の存在など、いくつかの課題に直面する。
論文 参考訳(メタデータ) (2021-09-08T07:56:51Z) - FocusLiteNN: High Efficiency Focus Quality Assessment for Digital
Pathology [42.531674974834544]
本稿では,ハードウェアの過剰な要求を伴わずに,知識駆動方式と同様の高速な計算を行うCNNベースのモデルを提案する。
FocusPathを使って、9つの異なる色の組織スライドを含むトレーニングデータセットを作成します。
CNNの複雑さを減らそうとする試みでは、CNNを最小レベルまで縮小しても、競争力の高いパフォーマンスを実現しているのが驚きです。
論文 参考訳(メタデータ) (2020-07-11T20:52:01Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。