論文の概要: ResNet101 and DAE for Enhance Quality and Classification Accuracy in Skin Cancer Imaging
- arxiv url: http://arxiv.org/abs/2403.14248v1
- Date: Thu, 21 Mar 2024 09:07:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 14:57:51.286058
- Title: ResNet101 and DAE for Enhance Quality and Classification Accuracy in Skin Cancer Imaging
- Title(参考訳): 皮膚癌画像におけるResNet101とDAEによる品質と分類精度の向上
- Authors: Sibasish Dhibar,
- Abstract要約: 本稿では,ResNet101を用いて,Deep Autoencoder (DAE) という,革新的な畳み込み型アンサンブルネットワーク手法を提案する。
この方法は、畳み込みに基づくディープニューラルネットワークを用いて皮膚がんを検出する。
精度96.03%、精度95.40%、リコール96.05%、F測定0.9576、AUC0.98である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Skin cancer is a crucial health issue that requires timely detection for higher survival rates. Traditional computer vision techniques face challenges in addressing the advanced variability of skin lesion features, a gap partially bridged by convolutional neural networks (CNNs). To overcome the existing issues, we introduce an innovative convolutional ensemble network approach named deep autoencoder (DAE) with ResNet101. This method utilizes convolution-based deep neural networks for the detection of skin cancer. The ISIC-2018 public data taken from the source is used for experimental results, which demonstrate remarkable performance with the different in terms of performance metrics. The methods result in 96.03% of accuracy, 95.40 % of precision, 96.05% of recall, 0.9576 of F-measure, 0.98 of AUC.
- Abstract(参考訳): 皮膚がんは、生存率を高めるためにタイムリーな検出を必要とする重要な健康問題である。
従来のコンピュータビジョン技術は、畳み込みニューラルネットワーク(CNN)によって部分的に橋渡しされる皮膚病変の特徴の高度な変動に対処する上で、課題に直面している。
既存の問題を解決するために、ResNet101でDep Autoencoder (DAE) と呼ばれる革新的な畳み込み型アンサンブルネットワークアプローチを導入する。
この方法は、畳み込みに基づくディープニューラルネットワークを用いて皮膚がんを検出する。
ソースから取得したISIC-2018公開データは実験結果に使用される。
精度96.03%、精度95.40%、リコール96.05%、F測定0.9576、AUC0.98である。
関連論文リスト
- Breast Cancer Image Classification Method Based on Deep Transfer Learning [40.3927727959038]
深層学習と転写学習を組み合わせた乳癌画像分類モデルを提案する。
実験結果から, アルゴリズムは, 従来のモデルに比べて分類精度が有意に向上し, テストセットの84.0%以上の効率を達成することが示された。
論文 参考訳(メタデータ) (2024-04-14T12:09:47Z) - Leveraging Spatial and Semantic Feature Extraction for Skin Cancer Diagnosis with Capsule Networks and Graph Neural Networks [0.0]
本研究では,グラフニューラルネットワーク(GNN)とCapsule Networksを統合して,分類性能を向上させるという,革新的なアプローチを提案する。
本稿では,Tiny Pyramid Vision GNN(Tiny Pyramid ViG)アーキテクチャをCapsule Networkに組み込んで評価・拡張することに焦点を当てた。
75回のトレーニングの後、我々のモデルは89.23%と95.52%に達し、既存のベンチマークを上回った。
論文 参考訳(メタデータ) (2024-03-18T17:47:39Z) - Liver Tumor Screening and Diagnosis in CT with Pixel-Lesion-Patient
Network [37.931408083443074]
Pixel-Lesion-pAtient Network (PLAN) は, アンカークエリの改善と前景のサンプリング損失による各病変の分割と分類を行う。
PLANは95%と96%の患者レベルの感度と特異性を達成している。
造影CTでは, 病変レベルの検出精度, リコール, 分類精度は92%, 89%, 86%であり, CNNやトランスフォーマーよりも優れていた。
論文 参考訳(メタデータ) (2023-07-17T06:21:45Z) - New pyramidal hybrid textural and deep features based automatic skin
cancer classification model: Ensemble DarkNet and textural feature extractor [1.4502611532302039]
本研究は, 皮膚癌自動検出の課題を克服することを目的とする。
自動多段階テクスチャおよびディープ特徴ベースモデルを提案する。
選ばれた上位1000の機能は、10倍のクロスバリデーション技術を使って分類される。
論文 参考訳(メタデータ) (2022-03-28T20:53:09Z) - Interpretability methods of machine learning algorithms with
applications in breast cancer diagnosis [1.1470070927586016]
我々は,グローバルサロゲート(GS)法,個人期待(ICE)プロット,条件シェープ値(SV)などの解釈可能性技術を用いた。
乳がん診断における最良の成績は,提案したERN(精度96.6%,ROC曲線0.96)により得られた。
論文 参考訳(メタデータ) (2022-02-04T13:41:30Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Proposing method to Increase the detection accuracy of stomach cancer
based on colour and lint features of tongue using CNN and SVM [0.0]
舌の領域は、まず、深いRCNNカラーブラック Recursive Convolutional Neural Network (R-CNN)カラーブラックによって、顔画像から分離される。
以上の結果から, 提案法は舌の面積だけでなく, 非患者からの患者も正確に識別できることがわかった。
論文 参考訳(メタデータ) (2020-11-18T12:06:29Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - COVID-CAPS: A Capsule Network-based Framework for Identification of
COVID-19 cases from X-ray Images [34.93885932923011]
コロナウイルス(COVID-19)は、21世紀の2世紀末に、突然、そして間違いなく世界を変えた。
新型コロナウイルスの早期診断により、医療専門家や政府機関は移行の連鎖を破り、流行曲線をフラットにすることができる。
主に畳み込みニューラルネットワーク(CNN)をベースとしたディープニューラルネットワーク(DNN)ベースの診断ソリューション開発への関心が高まっている。
本稿では、小さなデータセットを処理可能な、Capsule Networks(COVID-CAPS)に基づく代替モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T14:20:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。