論文の概要: Skin Cancer Detection utilizing Deep Learning: Classification of Skin Lesion Images using a Vision Transformer
- arxiv url: http://arxiv.org/abs/2407.18554v2
- Date: Sun, 25 Aug 2024 08:09:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 20:50:26.544135
- Title: Skin Cancer Detection utilizing Deep Learning: Classification of Skin Lesion Images using a Vision Transformer
- Title(参考訳): 深層学習を用いた皮膚癌検出:視覚変換器を用いた皮膚病変画像の分類
- Authors: Carolin Flosdorf, Justin Engelker, Igor Keller, Nicolas Mohr,
- Abstract要約: 我々は、自己認識機構のアイデアに基づいて開発された視覚変換器(ViT)を用いる。
ViT-L32モデルは91.57%、メラノーマリコールは58.54%、ViT-L16は92.79%、メラノーマリコールは56.10%である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skin cancer detection still represents a major challenge in healthcare. Common detection methods can be lengthy and require human assistance which falls short in many countries. Previous research demonstrates how convolutional neural networks (CNNs) can help effectively through both automation and an accuracy that is comparable to the human level. However, despite the progress in previous decades, the precision is still limited, leading to substantial misclassifications that have a serious impact on people's health. Hence, we employ a Vision Transformer (ViT) that has been developed in recent years based on the idea of a self-attention mechanism, specifically two configurations of a pre-trained ViT. We generally find superior metrics for classifying skin lesions after comparing them to base models such as decision tree classifier and k-nearest neighbor (KNN) classifier, as well as to CNNs and less complex ViTs. In particular, we attach greater importance to the performance of melanoma, which is the most lethal type of skin cancer. The ViT-L32 model achieves an accuracy of 91.57% and a melanoma recall of 58.54%, while ViT-L16 achieves an accuracy of 92.79% and a melanoma recall of 56.10%. This offers a potential tool for faster and more accurate diagnoses and an overall improvement for the healthcare sector.
- Abstract(参考訳): 皮膚がん検出は依然として医療における大きな課題である。
一般的な検出方法は長く、多くの国で不足している人的援助を必要とする。
これまでの研究では、畳み込みニューラルネットワーク(CNN)が、自動化と人間のレベルに匹敵する精度の両方を効果的に活用する方法が示されている。
しかし、過去数十年の進歩にもかかわらず、精度は依然として限られており、人々の健康に深刻な影響を及ぼす重大な誤分類につながっている。
そこで我々は,近年開発されているビジョントランスフォーマー(ViT)を,自己注意機構,特に事前学習したViTの2つの構成に基づいて採用している。
判定木分類器やk-nearest neighbor(KNN)分類器,CNNやより複雑なVTと比較し,皮膚病変の分類に優れた指標が得られた。
特に,最も致命的な皮膚癌であるメラノーマの悪性度に重きを置いている。
ViT-L32モデルは91.57%、メラノーマリコールは58.54%、ViT-L16は92.79%、メラノーマリコールは56.10%である。
これは、より迅速で正確な診断のための潜在的なツールと、医療セクター全体の改善を提供する。
関連論文リスト
- Advanced Hybrid Deep Learning Model for Enhanced Classification of Osteosarcoma Histopathology Images [0.0]
本研究は, 小児および思春期において最も多い骨癌である骨肉腫(OS)に焦点を当て, 腕と足の長い骨に影響を及ぼす。
我々は、OSの診断精度を向上させるために、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)を組み合わせた新しいハイブリッドモデルを提案する。
このモデルは精度99.08%、精度99.10%、リコール99.28%、F1スコア99.23%を達成した。
論文 参考訳(メタデータ) (2024-10-29T13:54:08Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Diagnosis of Skin Cancer Using VGG16 and VGG19 Based Transfer Learning Models [0.6827423171182154]
ディープ畳み込みニューラルネットワーク(CNN)は、データと画像の分類に優れた可能性を示している。
本稿では,CNNを用いた皮膚病変分類問題について検討する。
本研究では, 転写学習の枠組みを適切に設計し, 適用することにより, 病変検出の顕著な分類精度を得ることができることを示す。
論文 参考訳(メタデータ) (2024-04-01T15:06:20Z) - Skin Cancer Segmentation and Classification Using Vision Transformer for
Automatic Analysis in Dermatoscopy-based Non-invasive Digital System [0.0]
本研究では,Vision Transformerを用いた皮膚癌分類における画期的なアプローチを提案する。
Vision Transformerは、多様な画像解析タスクの成功で有名な最先端のディープラーニングアーキテクチャである。
Segment Anything Modelは、癌領域の正確なセグメンテーションを支援し、高いIOUとDice Coefficientを達成する。
論文 参考訳(メタデータ) (2024-01-09T11:22:54Z) - Double-Condensing Attention Condenser: Leveraging Attention in Deep Learning to Detect Skin Cancer from Skin Lesion Images [61.36288157482697]
皮膚がんはアメリカ合衆国で最も一般的な種類のがんであり、5人に1人のアメリカ人に影響を与えると推定されている。
近年の進歩は,SIIM-ISICメラノーマ分類チャレンジのアートパフォーマンスの状況から,皮膚がん検出に強い効果を示している。
本稿では,皮膚病変画像の皮膚癌検出に効率的な自己注意構造を活用し,皮膚病変画像からの皮膚癌検出をカスタマイズしたDC-ACを用いたディープニューラルネットワーク設計を提案する。
論文 参考訳(メタデータ) (2023-11-20T10:45:39Z) - A Comprehensive Evaluation Study on Risk Level Classification of
Melanoma by Computer Vision on ISIC 2016-2020 Datasets [0.0]
メラノーマは皮膚がんの75%の死因である。
メラノーマの検出は何百万人もの人に良い影響を与える可能性がある。
ISICアーカイブは皮膚病変の皮膚内視鏡像の収集で最大である。
論文 参考訳(メタデータ) (2023-02-19T09:58:58Z) - Melanoma Skin Cancer and Nevus Mole Classification using Intensity Value
Estimation with Convolutional Neural Network [0.0]
メラノーマ皮膚がんは最も危険で致命的ながんの一つである。
紫外線への曝露は皮膚細胞のDNAを損傷し、メラノーマ皮膚がんを引き起こす。
未熟期の悪性黒色腫とnevus moleの検出・分類は困難である。
論文 参考訳(メタデータ) (2022-09-30T13:35:24Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。