論文の概要: New pyramidal hybrid textural and deep features based automatic skin
cancer classification model: Ensemble DarkNet and textural feature extractor
- arxiv url: http://arxiv.org/abs/2203.15090v1
- Date: Mon, 28 Mar 2022 20:53:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 13:44:28.761707
- Title: New pyramidal hybrid textural and deep features based automatic skin
cancer classification model: Ensemble DarkNet and textural feature extractor
- Title(参考訳): 新しいピラミッド型ハイブリッドテクスチャとディープ機能に基づく皮膚癌自動分類モデル:アンサンブルダークネットとテクスチャ特徴抽出器
- Authors: Mehmet Baygin, Turker Tuncer, Sengul Dogan
- Abstract要約: 本研究は, 皮膚癌自動検出の課題を克服することを目的とする。
自動多段階テクスチャおよびディープ特徴ベースモデルを提案する。
選ばれた上位1000の機能は、10倍のクロスバリデーション技術を使って分類される。
- 参考スコア(独自算出の注目度): 1.4502611532302039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background: Skin cancer is one of the widely seen cancer worldwide and
automatic classification of skin cancer can be benefited dermatology clinics
for an accurate diagnosis. Hence, a machine learning-based automatic skin
cancer detection model must be developed. Material and Method: This research
interests to overcome automatic skin cancer detection problem. A colored skin
cancer image dataset is used. This dataset contains 3297 images with two
classes. An automatic multilevel textural and deep features-based model is
presented. Multilevel fuse feature generation using discrete wavelet transform
(DWT), local phase quantization (LPQ), local binary pattern (LBP), pre-trained
DarkNet19, and DarkNet53 are utilized to generate features of the skin cancer
images, top 1000 features are selected threshold value-based neighborhood
component analysis (NCA). The chosen top 1000 features are classified using the
10-fold cross-validation technique. Results: To obtain results, ten-fold
cross-validation is used and 91.54% classification accuracy results are
obtained by using the recommended pyramidal hybrid feature generator and NCA
selector-based model. Further, various training and testing separation ratios
(90:10, 80:20, 70:30, 60:40, 50:50) are used and the maximum classification
rate is calculated as 95.74% using the 90:10 separation ratio. Conclusions: The
findings and accuracies calculated are denoted that this model can be used in
dermatology and pathology clinics to simplify the skin cancer detection process
and help physicians.
- Abstract(参考訳): 背景:皮膚癌は世界中で広く見られるがんの1つであり、皮膚癌の自動分類は正確な診断のために皮膚科臨床に有用である。
したがって、機械学習に基づく皮膚がんの自動検出モデルを開発する必要がある。
材料及び方法:本研究は、皮膚がんの自動検出問題を克服することに関心を持つ。
色付き皮膚がん画像データセットを使用する。
このデータセットは、2つのクラスを持つ3297のイメージを含んでいる。
自動多段階テクスチャおよびディープ特徴ベースモデルを提案する。
離散ウェーブレット変換(dwt)、局所位相量子化(lpq)、局所バイナリパターン(lbp)、事前訓練されたdarknet19、darknet53を用いたマルチレベルヒューズ特徴生成により、皮膚がん画像の特徴を生成し、閾値に基づく近傍成分分析(nca)によりトップ1000の特徴を選択する。
選ばれた上位1000の機能は、10倍のクロスバリデーション技術を使って分類される。
結果:結果を得るために10倍のクロスバリデーションを用い,推奨ピラミッド型ハイブリッド特徴生成器とncaセレクタベースモデルを用いて91.54%の分類精度を得た。
また、各種の訓練・試験分離比(90:10,80:20,70:30,60:40,50:50)を用い、90:10分離比を用いて最大分類率を95.74%とする。
結論: このモデルは皮膚科・病理診療所において皮膚がん検出プロセスを簡素化し, 医師の助けとなることが示唆された。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - A Wavelet Guided Attention Module for Skin Cancer Classification with Gradient-based Feature Fusion [22.872949341281657]
本研究では,新しいアテンション機構を用いて,空間的次元と病変の対称性の相違点を同定する新しいモデルを提案する。
我々は、HAM10000と呼ばれるマルチクラスで高いクラスバランスのデータセットでモデルをテストし、91.17%のF1スコアと90.75%の精度で有望な結果を得た。
論文 参考訳(メタデータ) (2024-06-21T13:21:44Z) - Skin Cancer Images Classification using Transfer Learning Techniques [0.0]
良性期における皮膚癌の早期診断は、がん死亡率の低下に重要である。
これまで,様々な深層学習モデルを用いた皮膚癌診断の課題に対処してきた。
本研究は, 良性および悪性期における皮膚癌検出のバイナリ分類に, 5種類の事前学習型トランスファーラーニングアプローチを適用した。
論文 参考訳(メタデータ) (2024-06-18T15:48:20Z) - Convolutional neural network classification of cancer cytopathology images: taking breast cancer as an example [40.3927727959038]
本稿では,画像の高速分類に畳み込みニューラルネットワーク(CNN)を用いる手法を提案する。
病理像を良性群と悪性群に迅速かつ自動分類することができる。
本手法は乳がんの病理像の分類における精度を効果的に向上することを示す。
論文 参考訳(メタデータ) (2024-04-12T07:08:05Z) - Diagnosis of Skin Cancer Using VGG16 and VGG19 Based Transfer Learning Models [0.6827423171182154]
ディープ畳み込みニューラルネットワーク(CNN)は、データと画像の分類に優れた可能性を示している。
本稿では,CNNを用いた皮膚病変分類問題について検討する。
本研究では, 転写学習の枠組みを適切に設計し, 適用することにより, 病変検出の顕著な分類精度を得ることができることを示す。
論文 参考訳(メタデータ) (2024-04-01T15:06:20Z) - Liver Tumor Screening and Diagnosis in CT with Pixel-Lesion-Patient
Network [37.931408083443074]
Pixel-Lesion-pAtient Network (PLAN) は, アンカークエリの改善と前景のサンプリング損失による各病変の分割と分類を行う。
PLANは95%と96%の患者レベルの感度と特異性を達成している。
造影CTでは, 病変レベルの検出精度, リコール, 分類精度は92%, 89%, 86%であり, CNNやトランスフォーマーよりも優れていた。
論文 参考訳(メタデータ) (2023-07-17T06:21:45Z) - Cluster-Induced Mask Transformers for Effective Opportunistic Gastric
Cancer Screening on Non-contrast CT Scans [38.46196471197819]
世界第3位の死因は胃癌である。
既存の方法は侵襲的であり、高価であり、早期胃癌を特定する感度が欠如している。
マルチタスク方式で腫瘍を共同分割し異常を分類する新規なクラスタ誘導型マスクトランスを提案する。
論文 参考訳(メタデータ) (2023-07-10T12:49:36Z) - Melanoma Skin Cancer and Nevus Mole Classification using Intensity Value
Estimation with Convolutional Neural Network [0.0]
メラノーマ皮膚がんは最も危険で致命的ながんの一つである。
紫外線への曝露は皮膚細胞のDNAを損傷し、メラノーマ皮膚がんを引き起こす。
未熟期の悪性黒色腫とnevus moleの検出・分類は困難である。
論文 参考訳(メタデータ) (2022-09-30T13:35:24Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - A Smartphone based Application for Skin Cancer Classification Using Deep
Learning with Clinical Images and Lesion Information [1.8199326045904993]
ディープニューラルネットワーク(DNN)は皮膚がんの検出に有効である。
本研究では,スマートフォンを用いた皮膚がん検出支援アプリケーションを提案する。
論文 参考訳(メタデータ) (2021-04-28T16:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。