論文の概要: Skin Cancer Segmentation and Classification Using Vision Transformer for
Automatic Analysis in Dermatoscopy-based Non-invasive Digital System
- arxiv url: http://arxiv.org/abs/2401.04746v1
- Date: Tue, 9 Jan 2024 11:22:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 16:18:43.707236
- Title: Skin Cancer Segmentation and Classification Using Vision Transformer for
Automatic Analysis in Dermatoscopy-based Non-invasive Digital System
- Title(参考訳): 皮膚内視鏡による非侵襲的デジタルシステムにおける視覚変換器を用いた皮膚癌分離分類
- Authors: Galib Muhammad Shahriar Himel, Md. Masudul Islam, Kh Abdullah Al-Aff,
Shams Ibne Karim, Md. Kabir Uddin Sikder
- Abstract要約: 本研究では,Vision Transformerを用いた皮膚癌分類における画期的なアプローチを提案する。
Vision Transformerは、多様な画像解析タスクの成功で有名な最先端のディープラーニングアーキテクチャである。
Segment Anything Modelは、癌領域の正確なセグメンテーションを支援し、高いIOUとDice Coefficientを達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Skin cancer is a global health concern, necessitating early and accurate
diagnosis for improved patient outcomes. This study introduces a groundbreaking
approach to skin cancer classification, employing the Vision Transformer, a
state-of-the-art deep learning architecture renowned for its success in diverse
image analysis tasks. Utilizing the HAM10000 dataset of 10,015 meticulously
annotated skin lesion images, the model undergoes preprocessing for enhanced
robustness. The Vision Transformer, adapted to the skin cancer classification
task, leverages the self-attention mechanism to capture intricate spatial
dependencies, achieving superior performance over traditional deep learning
architectures. Segment Anything Model aids in precise segmentation of cancerous
areas, attaining high IOU and Dice Coefficient. Extensive experiments highlight
the model's supremacy, particularly the Google-based ViT patch-32 variant,
which achieves 96.15% accuracy and showcases potential as an effective tool for
dermatologists in skin cancer diagnosis, contributing to advancements in
dermatological practices.
- Abstract(参考訳): 皮膚がんは世界的な健康上の問題であり、早期かつ正確な診断が必要である。
本研究では,多様な画像解析タスクで成功を収めた最先端のディープラーニングアーキテクチャであるVision Transformerを用いて,皮膚がん分類に対する画期的なアプローチを提案する。
注意深い皮膚病変画像10,015のham10000データセットを利用して,本モデルではロバスト性向上のための前処理を行う。
視覚トランスフォーマーは、皮膚がん分類タスクに適応し、複雑な空間依存を捉え、従来のディープラーニングアーキテクチャよりも優れたパフォーマンスを達成するためにセルフアテンションメカニズムを利用する。
Segment Anything Modelは、癌領域の正確なセグメンテーションを支援し、高いIOUとDice Coefficientを達成する。
これは96.15%の精度を達成し、皮膚がんの診断において皮膚科医にとって有効なツールとしての可能性を示し、皮膚科の進歩に寄与している。
関連論文リスト
- Advanced Hybrid Deep Learning Model for Enhanced Classification of Osteosarcoma Histopathology Images [0.0]
本研究は, 小児および思春期において最も多い骨癌である骨肉腫(OS)に焦点を当て, 腕と足の長い骨に影響を及ぼす。
我々は、OSの診断精度を向上させるために、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)を組み合わせた新しいハイブリッドモデルを提案する。
このモデルは精度99.08%、精度99.10%、リコール99.28%、F1スコア99.23%を達成した。
論文 参考訳(メタデータ) (2024-10-29T13:54:08Z) - Comparative Analysis of Transfer Learning Models for Breast Cancer Classification [10.677937909900486]
本研究は, 病理組織学的スライドにおいて, 浸潤性直腸癌 (IDC) と非IDCを区別する深層学習モデルの効率について検討した。
ResNet-50, DenseNet-121, ResNeXt-50, Vision Transformer (ViT), GoogLeNet (Inception v3), EfficientNet, MobileNet, SqueezeNet。
論文 参考訳(メタデータ) (2024-08-29T18:49:32Z) - Hybrid Deep Learning Framework for Enhanced Melanoma Detection [3.004788114489393]
本研究の目的は, メラノーマ検出の精度と効率を, 革新的なハイブリッドアプローチにより向上させることである。
我々は、HAM10000データセットを使用して、U-Netモデルを綿密に訓練し、癌領域を正確に分類することができる。
我々はISIC 2020データセットを用いてEfficientNetモデルをトレーニングし、皮膚がんのバイナリ分類に最適化する。
論文 参考訳(メタデータ) (2024-07-16T04:58:47Z) - Optimizing Synthetic Correlated Diffusion Imaging for Breast Cancer Tumour Delineation [71.91773485443125]
CDI$s$ - 最適化されたモダリティにより最高のAUCが達成され、金標準のモダリティが0.0044より優れていることを示す。
特に、最適化されたCDI$s$モダリティは、最適化されていないCDI$s$値よりも0.02以上のAUC値を達成する。
論文 参考訳(メタデータ) (2024-05-13T16:07:58Z) - Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - Multi-Scale Hybrid Vision Transformer for Learning Gastric Histology:
AI-Based Decision Support System for Gastric Cancer Treatment [50.89811515036067]
胃内視鏡検査は、早期に適切な胃癌(GC)治療を判定し、GC関連死亡率を低下させる有効な方法である。
本稿では,一般のGC治療指導と直接一致する5つのGC病理のサブ分類を可能にする実用的なAIシステムを提案する。
論文 参考訳(メタデータ) (2022-02-17T08:33:52Z) - DenseNet approach to segmentation and classification of dermatoscopic
skin lesions images [0.0]
本稿では,2つのアーキテクチャを用いた皮膚病変の分類と分類の改善手法を提案する。
U-NetとDenseNet121の組み合わせは、皮膚内視鏡画像解析において許容できる結果を提供する。
DenseNet121ネットワークでは、それぞれ79.49%と93.11%の精度で癌と非癌サンプルが検出された。
論文 参考訳(メタデータ) (2021-10-09T19:12:23Z) - OncoPetNet: A Deep Learning based AI system for mitotic figure counting
on H&E stained whole slide digital images in a large veterinary diagnostic
lab setting [47.38796928990688]
OncoPetNetの開発において,複数の最先端ディープラーニング技術を用いて病理組織像分類と有糸体像検出を行った。
提案システムは,14種類の癌に対して,ヒトのエキスパートベースラインと比較して,41例の有糸分裂計数性能を有意に向上させた。
デプロイでは、2つのセンターで1日3,323枚のデジタル全スライド画像を処理する高スループット獣医診断サービスにおいて、効果的な0.27分/スライダー推論が達成された。
論文 参考訳(メタデータ) (2021-08-17T20:01:33Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z) - Harvesting, Detecting, and Characterizing Liver Lesions from Large-scale
Multi-phase CT Data via Deep Dynamic Texture Learning [24.633802585888812]
ダイナミックコントラストCT(Dynamic contrast Computed Tomography)のための完全自動多段階肝腫瘍評価フレームワークを提案する。
本システムでは, 腫瘍提案検出, 腫瘍採取, 原発部位の選択, 深部テクスチャに基づく腫瘍評価の4段階からなる。
論文 参考訳(メタデータ) (2020-06-28T19:55:34Z) - Spatio-spectral deep learning methods for in-vivo hyperspectral
laryngeal cancer detection [49.32653090178743]
頭頸部腫瘍の早期発見は患者の生存に不可欠である。
ハイパースペクトルイメージング(HSI)は頭頸部腫瘍の非侵襲的検出に用いられる。
HSIに基づく喉頭癌診断のための複数の深層学習手法を提案する。
論文 参考訳(メタデータ) (2020-04-21T17:07:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。