論文の概要: Classification of Diabetic Retinopathy Severity in Fundus Images with
DenseNet121 and ResNet50
- arxiv url: http://arxiv.org/abs/2108.08473v1
- Date: Thu, 19 Aug 2021 03:28:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-21 01:54:41.625919
- Title: Classification of Diabetic Retinopathy Severity in Fundus Images with
DenseNet121 and ResNet50
- Title(参考訳): densenet121およびresnet50を用いた眼底画像における糖尿病網膜症重症度分類
- Authors: Jonathan Zhang, Bowen Xie, Xin Wu, Rahul Ram, David Liang
- Abstract要約: 深層学習アルゴリズムは、糖尿病網膜症の重症度の観点から、基底画像の分類に使用される。
平均バリデーション損失0.17、最大バリデーション精度85パーセントを達成しました。
- 参考スコア(独自算出の注目度): 7.002240694310425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, deep learning algorithms are used to classify fundus images in
terms of diabetic retinopathy severity. Six different combinations of two model
architectures, the Dense Convolutional Network-121 and the Residual Neural
Network-50 and three image types, RGB, Green, and High Contrast, were tested to
find the highest performing combination. We achieved an average validation loss
of 0.17 and a max validation accuracy of 85 percent. By testing out multiple
combinations, certain combinations of parameters performed better than others,
though minimal variance was found overall. Green filtration was shown to
perform the poorest, while amplified contrast appeared to have a negligible
effect in comparison to RGB analysis. ResNet50 proved to be less of a robust
model as opposed to DenseNet121.
- Abstract(参考訳): 本研究では,糖尿病網膜症重症度の観点から,深層学習アルゴリズムを用いて眼底画像の分類を行う。
Dense Convolutional Network-121とResidual Neural Network-50という2つのモデルアーキテクチャの6つの組み合わせと、RGB、Green、High Contrastの3つのイメージタイプを比較検討し、最高のパフォーマンスの組み合わせを見いだした。
平均バリデーション損失は0.17で,最大バリデーション精度は85%であった。
複数の組み合わせをテストすることで、パラメータの特定の組み合わせは他のものよりも優れた性能を示した。
グリーンろ過は最も低い値を示したが、増幅されたコントラストはrgb分析と比較して無視できない効果を示した。
ResNet50はDenseNet121とは対照的に、堅牢なモデルではないことが判明した。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - TBDLNet: a network for classifying multidrug-resistant and
drug-sensitive tuberculosis [20.278451340628624]
TBDLNetは多剤耐性結核および薬剤感受性結核の分類に適している。
多剤耐性肺結核をできるだけ早く検出でき、治療計画の調整と治療効果の改善に役立つ。
論文 参考訳(メタデータ) (2023-10-27T15:51:33Z) - Early Diagnosis of Retinal Blood Vessel Damage via Deep Learning-Powered
Collective Intelligence Models [0.3670422696827525]
Swarmアルゴリズムのパワーは、タスクに最適なモデルを提供するために、畳み込み層、プーリング層、正規化層の様々な組み合わせを探すために使用される。
最高のTDCNモデルは90.3%、AUC ROCは0.956、Cohenスコアは0.967である。
論文 参考訳(メタデータ) (2022-10-17T21:38:38Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - ALLNet: A Hybrid Convolutional Neural Network to Improve Diagnosis of
Acute Lymphocytic Leukemia (ALL) in White Blood Cells [0.0]
ALL Challengeデータセットには、モデルのトレーニングとテストに使用された白血球の画像10,691枚が含まれている。
提案されているハイブリッド畳み込みニューラルネットワークアーキテクチャであるAllNetは、VGG、ResNet、Inceptionモデルの組み合わせで構成されている。
テストセットでは、ALLNetは精度92.6567%、感度95.5304%、特異度85.9155%、AUCスコア0.966347、F1スコア0.94803を達成した。
論文 参考訳(メタデータ) (2021-08-18T15:24:53Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Metastatic Cancer Image Classification Based On Deep Learning Method [7.832709940526033]
画像分類におけるディープラーニングアルゴリズム, DenseNet169 フレームワーク, Rectified Adam 最適化アルゴリズムを併用したNoval法を提案する。
我々のモデルは、Vgg19、Resnet34、Resnet50のような他の古典的畳み込みニューラルネットワークアプローチよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2020-11-13T16:04:39Z) - FLANNEL: Focal Loss Based Neural Network Ensemble for COVID-19 Detection [61.04937460198252]
正常, 細菌性肺炎, 非ウイルス性肺炎, COVID-19の4型を有する2874例のX線画像データを構築した。
FLANNEL(Focal Loss Based Neural Ensemble Network)を提案する。
FLANNELは、すべての指標において、新型コロナウイルス識別タスクのベースラインモデルを一貫して上回っている。
論文 参考訳(メタデータ) (2020-10-30T03:17:31Z) - RetiNerveNet: Using Recursive Deep Learning to Estimate Pointwise 24-2
Visual Field Data based on Retinal Structure [109.33721060718392]
緑内障は 世界でも 不可逆的な盲目の 主要な原因です 7000万人以上が 影響を受けています
The Standard Automated Perimetry (SAP) test's innate difficulty and its high test-retest variable, we propose the RetiNerveNet。
論文 参考訳(メタデータ) (2020-10-15T03:09:08Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Blended Multi-Modal Deep ConvNet Features for Diabetic Retinopathy
Severity Prediction [0.0]
糖尿病網膜症(DR)は、世界中の視覚障害と視覚障害の主要な原因の1つである。
複数の事前学習したConvNetモデルから抽出した特徴をブレンドした網膜画像の最適表現を導出する。
DR識別は97.41%、カッパ統計は94.82、カッパ統計は81.7%、カッパ統計は71.1%である。
論文 参考訳(メタデータ) (2020-05-30T06:46:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。