論文の概要: ResNet101 and DAE for Enhance Quality and Classification Accuracy in Skin Cancer Imaging
- arxiv url: http://arxiv.org/abs/2403.14248v1
- Date: Thu, 21 Mar 2024 09:07:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 14:57:51.286058
- Title: ResNet101 and DAE for Enhance Quality and Classification Accuracy in Skin Cancer Imaging
- Title(参考訳): 皮膚癌画像におけるResNet101とDAEによる品質と分類精度の向上
- Authors: Sibasish Dhibar,
- Abstract要約: 本稿では,ResNet101を用いて,Deep Autoencoder (DAE) という,革新的な畳み込み型アンサンブルネットワーク手法を提案する。
この方法は、畳み込みに基づくディープニューラルネットワークを用いて皮膚がんを検出する。
精度96.03%、精度95.40%、リコール96.05%、F測定0.9576、AUC0.98である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Skin cancer is a crucial health issue that requires timely detection for higher survival rates. Traditional computer vision techniques face challenges in addressing the advanced variability of skin lesion features, a gap partially bridged by convolutional neural networks (CNNs). To overcome the existing issues, we introduce an innovative convolutional ensemble network approach named deep autoencoder (DAE) with ResNet101. This method utilizes convolution-based deep neural networks for the detection of skin cancer. The ISIC-2018 public data taken from the source is used for experimental results, which demonstrate remarkable performance with the different in terms of performance metrics. The methods result in 96.03% of accuracy, 95.40 % of precision, 96.05% of recall, 0.9576 of F-measure, 0.98 of AUC.
- Abstract(参考訳): 皮膚がんは、生存率を高めるためにタイムリーな検出を必要とする重要な健康問題である。
従来のコンピュータビジョン技術は、畳み込みニューラルネットワーク(CNN)によって部分的に橋渡しされる皮膚病変の特徴の高度な変動に対処する上で、課題に直面している。
既存の問題を解決するために、ResNet101でDep Autoencoder (DAE) と呼ばれる革新的な畳み込み型アンサンブルネットワークアプローチを導入する。
この方法は、畳み込みに基づくディープニューラルネットワークを用いて皮膚がんを検出する。
ソースから取得したISIC-2018公開データは実験結果に使用される。
精度96.03%、精度95.40%、リコール96.05%、F測定0.9576、AUC0.98である。
関連論文リスト
- Cancer-Net PCa-Seg: Benchmarking Deep Learning Models for Prostate Cancer Segmentation Using Synthetic Correlated Diffusion Imaging [65.83291923029985]
前立腺癌(PCa)は米国で最も多いがんであり、約30,000人、全診断の29%、2024年に35,000人が死亡した。
前立腺特異的抗原 (PSA) 検査やMRI (MRI) などの従来のスクリーニング法は診断において重要であるが、特異性や一般化性には限界がある。
我々はU-Net、SegResNet、Swin UNETR、Attention U-Net、LightM-UNetといった最先端のディープラーニングモデルを用いて、200ドルのCDIからPCa病変を抽出する。
論文 参考訳(メタデータ) (2025-01-15T22:23:41Z) - Hybrid deep learning-based strategy for the hepatocellular carcinoma cancer grade classification of H&E stained liver histopathology images [2.833640239679924]
肝細胞癌(HCC)は肝癌の一種であり,早期診断が一般的である。
本稿では、トランスファーラーニングを用いて、事前学習された畳み込みニューラルネットワーク(CNN)モデルから特徴を抽出するハイブリッドディープラーニングベースのアーキテクチャを提案する。
提案したハイブリッドモデルでは,TCGA-LIHCおよびKMCデータベースの事前学習モデルよりも2%,4%の精度が向上した。
論文 参考訳(メタデータ) (2024-12-04T07:26:36Z) - Advanced Hybrid Deep Learning Model for Enhanced Classification of Osteosarcoma Histopathology Images [0.0]
本研究は, 小児および思春期において最も多い骨癌である骨肉腫(OS)に焦点を当て, 腕と足の長い骨に影響を及ぼす。
我々は、OSの診断精度を向上させるために、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)を組み合わせた新しいハイブリッドモデルを提案する。
このモデルは精度99.08%、精度99.10%、リコール99.28%、F1スコア99.23%を達成した。
論文 参考訳(メタデータ) (2024-10-29T13:54:08Z) - An Integrated Deep Learning Model for Skin Cancer Detection Using Hybrid Feature Fusion Technique [2.621434923709917]
皮膚がんはDNA損傷によって引き起こされる重篤で致命的な病気である。
本研究では,皮膚病変の正確な分類を実現するための,Deep Learning(DL)に基づくハイブリッドフレームワークを提案する。
我々は92.27%の精度、92.33%の感度、92.22%の特異性、90.81%の精度、91.57%のF1スコアを達成する。
論文 参考訳(メタデータ) (2024-10-18T14:19:13Z) - Exploiting Precision Mapping and Component-Specific Feature Enhancement for Breast Cancer Segmentation and Identification [0.0]
乳房病変の分類・分類のための新しいDeep Learning(DL)フレームワークを提案する。
本稿では,PMAD-LinkNetセグメンテーションフレームワークの高精度マッピング機構(PMM)を提案する。
また、コンポーネント固有の特徴拡張モジュール (CSFEM) を導入し、コンポーネント固有の特徴強化分類器 (CSFEC-Net) を提案する。
論文 参考訳(メタデータ) (2024-07-03T06:40:26Z) - Breast Cancer Image Classification Method Based on Deep Transfer Learning [40.392772795903795]
深層学習と転写学習を組み合わせた乳癌画像分類モデルを提案する。
実験結果から, アルゴリズムは, 従来のモデルに比べて分類精度が有意に向上し, テストセットの84.0%以上の効率を達成することが示された。
論文 参考訳(メタデータ) (2024-04-14T12:09:47Z) - Leveraging Spatial and Semantic Feature Extraction for Skin Cancer Diagnosis with Capsule Networks and Graph Neural Networks [0.0]
本研究では,グラフニューラルネットワーク(GNN)とCapsule Networksを統合して,分類性能を向上させるという,革新的なアプローチを提案する。
本稿では,Tiny Pyramid Vision GNN(Tiny Pyramid ViG)アーキテクチャをCapsule Networkに組み込んで評価・拡張することに焦点を当てた。
75回のトレーニングの後、我々のモデルは89.23%と95.52%に達し、既存のベンチマークを上回った。
論文 参考訳(メタデータ) (2024-03-18T17:47:39Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - COVID-CAPS: A Capsule Network-based Framework for Identification of
COVID-19 cases from X-ray Images [34.93885932923011]
コロナウイルス(COVID-19)は、21世紀の2世紀末に、突然、そして間違いなく世界を変えた。
新型コロナウイルスの早期診断により、医療専門家や政府機関は移行の連鎖を破り、流行曲線をフラットにすることができる。
主に畳み込みニューラルネットワーク(CNN)をベースとしたディープニューラルネットワーク(DNN)ベースの診断ソリューション開発への関心が高まっている。
本稿では、小さなデータセットを処理可能な、Capsule Networks(COVID-CAPS)に基づく代替モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T14:20:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。