論文の概要: Automated Onychomycosis Detection Using Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2106.16139v1
- Date: Wed, 30 Jun 2021 15:45:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 15:28:50.481248
- Title: Automated Onychomycosis Detection Using Deep Neural Networks
- Title(参考訳): 深層ニューラルネットワークを用いたオニコマイコシスの自動検出
- Authors: Abdurrahim Yilmaz, Rahmetullah Varol, Fatih Goktay, Gulsum Gencoglan,
Ali Anil Demircali, Berk Dilsizoglu, Huseyin Uvet
- Abstract要約: 臨床皮膚科は今でも、明るい顕微鏡を用いたカリウム(KOH)溶液中の真菌の手動検査に大きく依存している。
本研究は,これらの問題の迅速な解法を可能にする,ディープニューラルネットワーク構造を提案する。
- 参考スコア(独自算出の注目度): 0.41562334038629595
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Clinical dermatology, still relies heavily on manual introspection of fungi
within a Potassium Hydroxide (KOH) solution using a brightfield microscope.
However, this method takes a long time, is based on the experience of the
clinician, and has a low accuracy. With the increase of neural network
applications in the field of clinical microscopy it is now possible to automate
such manual processes increasing both efficiency and accuracy. This study
presents a deep neural network structure that enables the rapid solutions for
these problems and can perform automatic fungi detection in grayscale images
without colorants. Microscopic images of 81 fungi and 235 ceratine were
collected. Then, smaller patches were extracted containing 2062 fungi and 2142
ceratine. In order to detect fungus and ceratine, two models were created one
of which was a custom neural network and the other was based on the VGG16
architecture. The developed custom model had 99.84% accuracy, and an area under
the curve (AUC) value of 1.00, while the VGG16 model had 98.89% accuracy and an
AUC value of 0.99. However, average accuracy and AUC value of clinicians is
72.8% and 0.87 respectively. This deep learning model allows the development of
an automated system that can detect fungi within microscopic images.
- Abstract(参考訳): 臨床皮膚学は依然として、蛍光顕微鏡を用いた水酸化カリウム(KOH)溶液中の真菌の手動検査に大きく依存している。
しかし, この手法は, 臨床医の経験に基づいて長い時間を要するため, 精度が低い。
臨床顕微鏡の分野でのニューラルネットワーク応用の増加により、そのような手動プロセスの自動化が効率と正確性の両方を向上させることができる。
本研究では,これらの問題を高速に解き,着色料を使わずにグレースケール画像の自動菌類検出を行うディープニューラルネットワーク構造を提案する。
81菌と235ケラチンの顕微鏡画像が得られた。
そして2062菌と2142ケラチンを含む小さなパッチを抽出した。
真菌とセラチンを検出するために、2つのモデルが作られ、そのうちの1つはカスタムニューラルネットワークであり、もう1つはVGG16アーキテクチャに基づいている。
開発されたカスタムモデルは99.84%の精度で曲線(AUC)の値が1.00であり、VGG16の精度は98.89%、AUCの値が0.99である。
しかし、臨床医の平均精度は72.8%、AUC値は0.87である。
このディープラーニングモデルは、顕微鏡画像内の菌類を検出する自動システムの開発を可能にする。
関連論文リスト
- Advanced Hybrid Deep Learning Model for Enhanced Classification of Osteosarcoma Histopathology Images [0.0]
本研究は, 小児および思春期において最も多い骨癌である骨肉腫(OS)に焦点を当て, 腕と足の長い骨に影響を及ぼす。
我々は、OSの診断精度を向上させるために、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)を組み合わせた新しいハイブリッドモデルを提案する。
このモデルは精度99.08%、精度99.10%、リコール99.28%、F1スコア99.23%を達成した。
論文 参考訳(メタデータ) (2024-10-29T13:54:08Z) - A study on deep feature extraction to detect and classify Acute Lymphoblastic Leukemia (ALL) [0.0]
急性リンパ芽球性白血病(ALL)は、主に成人と小児に影響を及ぼす血液悪性腫瘍である。
本研究では、深い学習、特に畳み込みニューラルネットワーク(CNN)を用いて、ALLの検出と分類を行う。
87%の精度で、ResNet101モデルは最高の結果をもたらし、その後にDenseNet121とVGG19が続いた。
論文 参考訳(メタデータ) (2024-09-10T17:53:29Z) - Enhancing Diagnostic Reliability of Foundation Model with Uncertainty Estimation in OCT Images [41.002573031087856]
光コヒーレンストモグラフィー(OCT)における11個の網膜状態を検出するために,不確実性推定(FMUE)を用いた基礎モデルを開発した。
FMUEは2つの最先端アルゴリズムであるRETFoundとUIOSよりも96.76%高いF1スコアを獲得し、しきい値戦略を98.44%に改善した。
我々のモデルは、F1スコアが高い2人の眼科医(95.17%対61.93% &71.72%)より優れている。
論文 参考訳(メタデータ) (2024-06-18T03:04:52Z) - Interpretable cancer cell detection with phonon microscopy using multi-task conditional neural networks for inter-batch calibration [39.759100498329275]
本稿では,バッチ間キャリブレーションを同時に実現する条件付きニューラルネットワークフレームワークを提案する。
異なる実験バッチをトレーニングし、検証することで、我々のアプローチを検証する。
このモデルを拡張して, 診断信号の再構成を行い, 疾患状態を示す有能な特徴の物理的解釈を可能にした。
論文 参考訳(メタデータ) (2024-03-26T12:20:10Z) - Improving Performance in Colorectal Cancer Histology Decomposition using Deep and Ensemble Machine Learning [0.7082642128219231]
組織学的にヘマトキシリンとエオシンで染色されたサンプルは、一般的に大腸癌管理に用いられている。
近年の研究では、手軽に利用できる画像から臨床関連バイオマーカーの抽出を容易にするための畳み込みニューラルネットワーク(CNN)の可能性を強調している。
CNNベースのバイオマーカーは、スピード、自動化、最小コストの利点を付加して、患者の結果をゴールデンスタンダードと同等に予測することができる。
論文 参考訳(メタデータ) (2023-10-25T19:46:27Z) - Evolving Tsukamoto Neuro Fuzzy Model for Multiclass Covid 19
Classification with Chest X Ray Images [2.609784101826762]
本稿では,Covid 19の検出のための機械学習ベースのフレームワークを提案する。
提案モデルでは,コビッド19病の同定と識別に塚本神経ファジィ推論ネットワークを用いている。
提案したモデルは精度98.51%、感度98.35%、特異度98.08%、F1スコア98.17%を達成する。
論文 参考訳(メタデータ) (2023-05-17T17:55:45Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Acute Lymphoblastic Leukemia Detection from Microscopic Images Using
Weighted Ensemble of Convolutional Neural Networks [4.095759108304108]
本稿では,深層畳み込みニューラルネットワーク(cnns)を用いた顕微鏡細胞画像からの全検出タスクを自動化した。
ネットワークのより優れた一般化を達成するために、様々なデータ拡張と前処理が組み込まれている。
提案する重み付きアンサンブルモデルでは, アンサンブル候補のカッパ値を重みとして, 重み付きF1スコア88.6 %, バランス付き精度86.2 %, 予備試験セットのAUC0.941を出力した。
論文 参考訳(メタデータ) (2021-05-09T18:58:48Z) - COVID-MTL: Multitask Learning with Shift3D and Random-weighted Loss for
Automated Diagnosis and Severity Assessment of COVID-19 [39.57518533765393]
新型コロナウイルスの正確かつ効果的な評価を支援する自動化方法が緊急に必要である。
我々は,放射線学とNATの両方において,自動かつ同時検出と重症度評価が可能なエンドツーエンドマルチタスク学習フレームワーク(COVID-MTL)を提案する。
論文 参考訳(メタデータ) (2020-12-10T08:30:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。