論文の概要: SegFormer Fine-Tuning with Dropout: Advancing Hair Artifact Removal in Skin Lesion Analysis
- arxiv url: http://arxiv.org/abs/2509.02156v1
- Date: Tue, 02 Sep 2025 10:06:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.990247
- Title: SegFormer Fine-Tuning with Dropout: Advancing Hair Artifact Removal in Skin Lesion Analysis
- Title(参考訳): SegFormer Fine-Tuning with Dropout:Advanced Heair Artifact removal in Skin Lesion Analysis (特集 皮膚疾患の診断と治療)
- Authors: Asif Mohammed Saad, Umme Niraj Mahi,
- Abstract要約: 皮膚内視鏡像の毛細血管は皮膚病変を正確に解析する上で重要な課題である。
この研究は、正確にヘアマスクのセグメンテーションを実現するために、ドロップアウト正規化を付加した微調整のSegFormerモデルを導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hair artifacts in dermoscopic images present significant challenges for accurate skin lesion analysis, potentially obscuring critical diagnostic features in dermatological assessments. This work introduces a fine-tuned SegFormer model augmented with dropout regularization to achieve precise hair mask segmentation. The proposed SegformerWithDropout architecture leverages the MiT-B2 encoder, pretrained on ImageNet, with an in-channel count of 3 and 2 output classes, incorporating a dropout probability of 0.3 in the segmentation head to prevent overfitting. Training is conducted on a specialized dataset of 500 dermoscopic skin lesion images with fine-grained hair mask annotations, employing 10-fold cross-validation, AdamW optimization with a learning rate of 0.001, and cross-entropy loss. Early stopping is applied based on validation loss, with a patience of 3 epochs and a maximum of 20 epochs per fold. Performance is evaluated using a comprehensive suite of metrics, including Intersection over Union (IoU), Dice coefficient, Peak Signal-to-Noise Ratio (PSNR), Structural Similarity Index (SSIM), and Learned Perceptual Image Patch Similarity (LPIPS). Experimental results from the cross-validation demonstrate robust performance, with average Dice coefficients reaching approximately 0.96 and IoU values of 0.93, alongside favorable PSNR (around 34 dB), SSIM (0.97), and low LPIPS (0.06), highlighting the model's effectiveness in accurate hair artifact segmentation and its potential to enhance preprocessing for downstream skin cancer detection tasks.
- Abstract(参考訳): 皮膚内視鏡像の毛細血管は,皮膚病変を正確に解析する上で重要な課題であり,皮膚科的評価において重要な診断的特徴を欠く可能性がある。
この研究は、正確にヘアマスクのセグメンテーションを実現するために、ドロップアウト正規化を付加した微調整のSegFormerモデルを導入する。
提案したSegformerWithDropoutアーキテクチャは、ImageNetで事前訓練されたMiT-B2エンコーダを3と2の出力クラスで利用し、セグメンテーションヘッドに0.3のドロップアウト確率を組み込んでオーバーフィッティングを防ぐ。
トレーニングは、10倍のクロスバリデーション、0.001のAdamW最適化、およびクロスエントロピー損失を用いた、細かなヘアマスクアノテーションを備えた500枚の皮膚病変画像の特別なデータセットに基づいて行われる。
早期停止は検証損失に基づいて適用され、忍耐は3エポック、最大折り畳みは20エポックである。
IoU(Intersection over Union)、Dice係数(Dice coefficient)、Pak Signal-to-Noise Ratio(PSNR)、Structure similarity Index(SSIM)、Learned Perceptual Image Patch similarity(LPIPS)など、総合的なメトリクススイートを用いてパフォーマンスを評価する。
クロスバリデーションによる実験結果は, 平均Dice係数が約0.96, IoU値が約0.93, PSNR(34dB), SSIM(0.97), 低LPIPS(0.06)が好適であり, 正確なヘアアーティファクトセグメンテーションにおけるモデルの有効性と, 下流皮膚がん検出タスクにおける前処理性を高める可能性を強調した。
関連論文リスト
- A Novel Attention-Augmented Wavelet YOLO System for Real-time Brain Vessel Segmentation on Transcranial Color-coded Doppler [49.03919553747297]
我々は,脳動脈を効率よく捉えることができるAIを利用したリアルタイムCoW自動分割システムを提案する。
Transcranial Color-coded Doppler (TCCD) を用いたAIによる脳血管セグメンテーションの事前研究は行われていない。
提案したAAW-YOLOは, 異方性および対側性CoW容器のセグメンテーションにおいて高い性能を示した。
論文 参考訳(メタデータ) (2025-08-19T14:41:22Z) - HANS-Net: Hyperbolic Convolution and Adaptive Temporal Attention for Accurate and Generalizable Liver and Tumor Segmentation in CT Imaging [1.3149714289117207]
腹部CT像における肝・腫瘍の正確なセグメンテーションは確実な診断と治療計画に重要である。
ニューラル表現とシナプティック・プラスティック・ネットワーク(HANS-Net)を用いたハイパーボリック・コンボリューションの導入
HANS-Netは、階層的幾何表現のための双曲的畳み込み、マルチスケールテクスチャ学習のためのウェーブレットインスパイアされた分解モジュール、暗黙の神経表現分岐を組み合わせた。
論文 参考訳(メタデータ) (2025-07-15T13:56:37Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - How Does Pruning Impact Long-Tailed Multi-Label Medical Image
Classifiers? [49.35105290167996]
プルーニングは、ディープニューラルネットワークを圧縮し、全体的なパフォーマンスに大きな影響を及ぼすことなく、メモリ使用量と推論時間を短縮する強力なテクニックとして登場した。
この研究は、プルーニングがモデル行動に与える影響を理解するための第一歩である。
論文 参考訳(メタデータ) (2023-08-17T20:40:30Z) - Weakly supervised segmentation of intracranial aneurysms using a novel 3D focal modulation UNet [0.5106162890866905]
本稿では,新しい3次元焦点変調UNetであるFocalSegNetを提案する。
UIA検出では偽陽性率は0.21で感度は0.80であった。
論文 参考訳(メタデータ) (2023-08-06T03:28:08Z) - Acute ischemic stroke lesion segmentation in non-contrast CT images
using 3D convolutional neural networks [0.0]
非コントラストCT脳画像における急性虚血性脳梗塞の容積分画を目的とした自動アルゴリズムを提案する。
我々のディープラーニングアプローチは、人気のある3D U-Net畳み込みニューラルネットワークアーキテクチャに基づいている。
論文 参考訳(メタデータ) (2023-01-17T10:39:39Z) - Segmentation and Risk Score Prediction of Head and Neck Cancers in
PET/CT Volumes with 3D U-Net and Cox Proportional Hazard Neural Networks [0.4433315630787158]
PET/CT画像から腫瘍の分節化を行うために3D nnU-Netモデルを用いて残層を圧縮・励起法(SE法)により補足した。
セグメンテッド病変から抽出したPET/CT放射能の特徴について, 危険リスク予測モデル (CoxCC) を訓練した。
10倍のクロスバリデードCoxCCモデルにより、HECKTORチャレンジテストデータセットにおいて、c-indexバリデーションスコアが0.89、c-indexスコアが0.61となった。
論文 参考訳(メタデータ) (2022-02-16T01:59:33Z) - Detection of Large Vessel Occlusions using Deep Learning by Deforming
Vessel Tree Segmentations [5.408694811103598]
この研究は、船体木分割マスクの弾性変形で訓練されたケースレベルの分類に畳み込みニューラルネットワークを使用し、トレーニングデータを人工的に増強する。
ニューラルネットワークは、LVOと影響を受ける半球の存在を分類する。
5倍のクロス検証アブレーション実験において,提案手法を用いることで,少数のデータセットからでも頑健なモデルを訓練できることが実証された。
論文 参考訳(メタデータ) (2021-12-03T09:07:29Z) - Systematic Clinical Evaluation of A Deep Learning Method for Medical
Image Segmentation: Radiosurgery Application [48.89674088331313]
3次元医用画像分割作業において,Deep Learning (DL) 手法を体系的に評価した。
本手法は放射線外科治療プロセスに統合され,臨床ワークフローに直接影響を及ぼす。
論文 参考訳(メタデータ) (2021-08-21T16:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。