論文の概要: Investigating and Exploiting Image Resolution for Transfer
Learning-based Skin Lesion Classification
- arxiv url: http://arxiv.org/abs/2006.14715v1
- Date: Thu, 25 Jun 2020 21:51:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 04:14:29.170388
- Title: Investigating and Exploiting Image Resolution for Transfer
Learning-based Skin Lesion Classification
- Title(参考訳): 転写学習に基づく皮膚病変分類における画像分解能の検討と活用
- Authors: Amirreza Mahbod, Gerald Schaefer, Chunliang Wang, Rupert Ecker, Georg
Dorffner, Isabella Ellinger
- Abstract要約: CNNは皮膚病変の分類に有効であることが示されている。
本稿では,入力画像サイズが細調整CNNの皮膚病変分類性能に及ぼす影響について検討する。
以上の結果から,64×64ピクセルの非常に小さな画像を用いて分類性能を低下させる一方,128×128ピクセルの画像では画像サイズが大きくなり,分類精度がわずかに向上した。
- 参考スコア(独自算出の注目度): 3.110738188734789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skin cancer is among the most common cancer types. Dermoscopic image analysis
improves the diagnostic accuracy for detection of malignant melanoma and other
pigmented skin lesions when compared to unaided visual inspection. Hence,
computer-based methods to support medical experts in the diagnostic procedure
are of great interest. Fine-tuning pre-trained convolutional neural networks
(CNNs) has been shown to work well for skin lesion classification. Pre-trained
CNNs are usually trained with natural images of a fixed image size which is
typically significantly smaller than captured skin lesion images and
consequently dermoscopic images are downsampled for fine-tuning. However,
useful medical information may be lost during this transformation. In this
paper, we explore the effect of input image size on skin lesion classification
performance of fine-tuned CNNs. For this, we resize dermoscopic images to
different resolutions, ranging from 64x64 to 768x768 pixels and investigate the
resulting classification performance of three well-established CNNs, namely
DenseNet-121, ResNet-18, and ResNet-50. Our results show that using very small
images (of size 64x64 pixels) degrades the classification performance, while
images of size 128x128 pixels and above support good performance with larger
image sizes leading to slightly improved classification. We further propose a
novel fusion approach based on a three-level ensemble strategy that exploits
multiple fine-tuned networks trained with dermoscopic images at various sizes.
When applied on the ISIC 2017 skin lesion classification challenge, our fusion
approach yields an area under the receiver operating characteristic curve of
89.2% and 96.6% for melanoma classification and seborrheic keratosis
classification, respectively, outperforming state-of-the-art algorithms.
- Abstract(参考訳): 皮膚がんは最も一般的ながんの1つである。
皮膚内視鏡画像解析は悪性黒色腫および他の色素性皮膚病変の診断精度を未確認視診と比較して向上させる。
したがって、診断手順における医療専門家を支援するコンピュータベースの方法は非常に興味深い。
微調整事前訓練された畳み込みニューラルネットワーク(cnns)は皮膚病変の分類に有効であることが示されている。
予め訓練されたcnnは、通常、撮影された皮膚病変画像よりもかなり小さい固定画像サイズの自然画像で訓練される。
しかし、この変換によって有用な医療情報が失われる可能性がある。
本稿では,入力画像サイズが細調整CNNの皮膚病変分類性能に及ぼす影響について検討する。
そこで本研究では,64x64から768x768ピクセルの異なる解像度で,DenseNet-121,ResNet-18,ResNet-50の3つのCNNの分類性能について検討した。
以上の結果から,64×64ピクセルの非常に小さな画像を用いて分類性能を低下させる一方,128×128ピクセル以上の画像では画像サイズが大きくなり,分類精度がわずかに向上した。
さらに,様々なサイズのデルモスコピック画像で訓練された複数の微調整ネットワークを活用する3レベルアンサンブル戦略に基づく新しい融合手法を提案する。
isic 2017皮膚病変分類チャレンジに適用されると、本融合アプローチは、メラノーマ分類と下垂体角膜症分類で89.2%と96.6%の受信特性曲線の下の領域が、最先端アルゴリズムよりも優れている。
関連論文リスト
- Skin Lesion Diagnosis Using Convolutional Neural Networks [0.30458514384586394]
本研究の目的は,様々な分野から画像分類のための最先端技術を収集し,この問題に対処することである。
モデルは8012画像のデータセットを用いて訓練され、その性能は2003画像を用いて評価された。
このモデルは、手作りの機能抽出を必要とせずに、イメージからラベルに直接、エンドツーエンドでトレーニングされています。
論文 参考訳(メタデータ) (2023-05-18T17:15:08Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - DenseNet approach to segmentation and classification of dermatoscopic
skin lesions images [0.0]
本稿では,2つのアーキテクチャを用いた皮膚病変の分類と分類の改善手法を提案する。
U-NetとDenseNet121の組み合わせは、皮膚内視鏡画像解析において許容できる結果を提供する。
DenseNet121ネットワークでは、それぞれ79.49%と93.11%の精度で癌と非癌サンプルが検出された。
論文 参考訳(メタデータ) (2021-10-09T19:12:23Z) - Multi-Scale Input Strategies for Medulloblastoma Tumor Classification
using Deep Transfer Learning [59.30734371401316]
乳腺芽腫は小児で最も多い悪性脳腫瘍である。
CNNはMBサブタイプ分類に有望な結果を示した。
タイルサイズと入力戦略の影響について検討した。
論文 参考訳(メタデータ) (2021-09-14T09:42:37Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Metastatic Cancer Image Classification Based On Deep Learning Method [7.832709940526033]
画像分類におけるディープラーニングアルゴリズム, DenseNet169 フレームワーク, Rectified Adam 最適化アルゴリズムを併用したNoval法を提案する。
我々のモデルは、Vgg19、Resnet34、Resnet50のような他の古典的畳み込みニューラルネットワークアプローチよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2020-11-13T16:04:39Z) - A Deep Learning Study on Osteosarcoma Detection from Histological Images [6.341765152919201]
最も一般的な悪性骨腫瘍は骨肉腫である。
CNNは、外科医の作業量を著しく減らし、患者の状態の予後を良くする。
CNNは、より信頼できるパフォーマンスを達成するために、大量のデータをトレーニングする必要があります。
論文 参考訳(メタデータ) (2020-11-02T18:16:17Z) - Evaluation of Big Data based CNN Models in Classification of Skin
Lesions with Melanoma [7.919213739992465]
このアーキテクチャは、畳み込み型ニューラルネットワークに基づいており、新しいCNNモデルを用いて評価され、既存のCNNモデルの再訓練が行われた。
最高の性能は、修正版のResNet-50畳み込みニューラルネットワークを93.89%の精度で再訓練することで達成された。
論文 参考訳(メタデータ) (2020-07-10T15:39:32Z) - Y-Net for Chest X-Ray Preprocessing: Simultaneous Classification of
Geometry and Segmentation of Annotations [70.0118756144807]
この研究は、機械学習アルゴリズムに胸部X線入力のための一般的な前処理ステップを導入する。
VGG11エンコーダをベースとした改良Y-Netアーキテクチャを用いて,ラジオグラフィの幾何学的配向とセグメンテーションを同時に学習する。
対照画像の27.0%,34.9%に対し,95.8%,96.2%のアノテーションマスクが認められた。
論文 参考訳(メタデータ) (2020-05-08T02:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。