論文の概要: ResNet101 and DAE for Enhance Quality and Classification Accuracy in Skin Cancer Imaging
- arxiv url: http://arxiv.org/abs/2403.14248v1
- Date: Thu, 21 Mar 2024 09:07:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 14:57:51.286058
- Title: ResNet101 and DAE for Enhance Quality and Classification Accuracy in Skin Cancer Imaging
- Title(参考訳): 皮膚癌画像におけるResNet101とDAEによる品質と分類精度の向上
- Authors: Sibasish Dhibar,
- Abstract要約: 本稿では,ResNet101を用いて,Deep Autoencoder (DAE) という,革新的な畳み込み型アンサンブルネットワーク手法を提案する。
この方法は、畳み込みに基づくディープニューラルネットワークを用いて皮膚がんを検出する。
精度96.03%、精度95.40%、リコール96.05%、F測定0.9576、AUC0.98である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Skin cancer is a crucial health issue that requires timely detection for higher survival rates. Traditional computer vision techniques face challenges in addressing the advanced variability of skin lesion features, a gap partially bridged by convolutional neural networks (CNNs). To overcome the existing issues, we introduce an innovative convolutional ensemble network approach named deep autoencoder (DAE) with ResNet101. This method utilizes convolution-based deep neural networks for the detection of skin cancer. The ISIC-2018 public data taken from the source is used for experimental results, which demonstrate remarkable performance with the different in terms of performance metrics. The methods result in 96.03% of accuracy, 95.40 % of precision, 96.05% of recall, 0.9576 of F-measure, 0.98 of AUC.
- Abstract(参考訳): 皮膚がんは、生存率を高めるためにタイムリーな検出を必要とする重要な健康問題である。
従来のコンピュータビジョン技術は、畳み込みニューラルネットワーク(CNN)によって部分的に橋渡しされる皮膚病変の特徴の高度な変動に対処する上で、課題に直面している。
既存の問題を解決するために、ResNet101でDep Autoencoder (DAE) と呼ばれる革新的な畳み込み型アンサンブルネットワークアプローチを導入する。
この方法は、畳み込みに基づくディープニューラルネットワークを用いて皮膚がんを検出する。
ソースから取得したISIC-2018公開データは実験結果に使用される。
精度96.03%、精度95.40%、リコール96.05%、F測定0.9576、AUC0.98である。
関連論文リスト
- Advanced Hybrid Deep Learning Model for Enhanced Classification of Osteosarcoma Histopathology Images [0.0]
本研究は, 小児および思春期において最も多い骨癌である骨肉腫(OS)に焦点を当て, 腕と足の長い骨に影響を及ぼす。
我々は、OSの診断精度を向上させるために、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)を組み合わせた新しいハイブリッドモデルを提案する。
このモデルは精度99.08%、精度99.10%、リコール99.28%、F1スコア99.23%を達成した。
論文 参考訳(メタデータ) (2024-10-29T13:54:08Z) - An Integrated Deep Learning Model for Skin Cancer Detection Using Hybrid Feature Fusion Technique [2.621434923709917]
皮膚がんはDNA損傷によって引き起こされる重篤で致命的な病気である。
本研究では,皮膚病変の正確な分類を実現するための,Deep Learning(DL)に基づくハイブリッドフレームワークを提案する。
我々は92.27%の精度、92.33%の感度、92.22%の特異性、90.81%の精度、91.57%のF1スコアを達成する。
論文 参考訳(メタデータ) (2024-10-18T14:19:13Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Explainable Convolutional Neural Networks for Retinal Fundus Classification and Cutting-Edge Segmentation Models for Retinal Blood Vessels from Fundus Images [0.0]
眼底画像における網膜血管の検査による早期診断の重要領域に焦点を当てた研究。
基礎画像解析の研究は,8つの事前学習CNNモデルを用いたディープラーニングに基づく分類を進歩させる。
本研究では,Grad-CAM,Grad-CAM++,Score-CAM,Faster Score-CAM,Layer CAMなどの説明可能なAI技術を利用する。
論文 参考訳(メタデータ) (2024-05-12T17:21:57Z) - Breast Cancer Image Classification Method Based on Deep Transfer Learning [40.392772795903795]
深層学習と転写学習を組み合わせた乳癌画像分類モデルを提案する。
実験結果から, アルゴリズムは, 従来のモデルに比べて分類精度が有意に向上し, テストセットの84.0%以上の効率を達成することが示された。
論文 参考訳(メタデータ) (2024-04-14T12:09:47Z) - Leveraging Spatial and Semantic Feature Extraction for Skin Cancer Diagnosis with Capsule Networks and Graph Neural Networks [0.0]
本研究では,グラフニューラルネットワーク(GNN)とCapsule Networksを統合して,分類性能を向上させるという,革新的なアプローチを提案する。
本稿では,Tiny Pyramid Vision GNN(Tiny Pyramid ViG)アーキテクチャをCapsule Networkに組み込んで評価・拡張することに焦点を当てた。
75回のトレーニングの後、我々のモデルは89.23%と95.52%に達し、既存のベンチマークを上回った。
論文 参考訳(メタデータ) (2024-03-18T17:47:39Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Proposing method to Increase the detection accuracy of stomach cancer
based on colour and lint features of tongue using CNN and SVM [0.0]
舌の領域は、まず、深いRCNNカラーブラック Recursive Convolutional Neural Network (R-CNN)カラーブラックによって、顔画像から分離される。
以上の結果から, 提案法は舌の面積だけでなく, 非患者からの患者も正確に識別できることがわかった。
論文 参考訳(メタデータ) (2020-11-18T12:06:29Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - COVID-CAPS: A Capsule Network-based Framework for Identification of
COVID-19 cases from X-ray Images [34.93885932923011]
コロナウイルス(COVID-19)は、21世紀の2世紀末に、突然、そして間違いなく世界を変えた。
新型コロナウイルスの早期診断により、医療専門家や政府機関は移行の連鎖を破り、流行曲線をフラットにすることができる。
主に畳み込みニューラルネットワーク(CNN)をベースとしたディープニューラルネットワーク(DNN)ベースの診断ソリューション開発への関心が高まっている。
本稿では、小さなデータセットを処理可能な、Capsule Networks(COVID-CAPS)に基づく代替モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T14:20:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。