論文の概要: Automated Onychomycosis Detection Using Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2106.16139v1
- Date: Wed, 30 Jun 2021 15:45:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 15:28:50.481248
- Title: Automated Onychomycosis Detection Using Deep Neural Networks
- Title(参考訳): 深層ニューラルネットワークを用いたオニコマイコシスの自動検出
- Authors: Abdurrahim Yilmaz, Rahmetullah Varol, Fatih Goktay, Gulsum Gencoglan,
Ali Anil Demircali, Berk Dilsizoglu, Huseyin Uvet
- Abstract要約: 臨床皮膚科は今でも、明るい顕微鏡を用いたカリウム(KOH)溶液中の真菌の手動検査に大きく依存している。
本研究は,これらの問題の迅速な解法を可能にする,ディープニューラルネットワーク構造を提案する。
- 参考スコア(独自算出の注目度): 0.41562334038629595
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Clinical dermatology, still relies heavily on manual introspection of fungi
within a Potassium Hydroxide (KOH) solution using a brightfield microscope.
However, this method takes a long time, is based on the experience of the
clinician, and has a low accuracy. With the increase of neural network
applications in the field of clinical microscopy it is now possible to automate
such manual processes increasing both efficiency and accuracy. This study
presents a deep neural network structure that enables the rapid solutions for
these problems and can perform automatic fungi detection in grayscale images
without colorants. Microscopic images of 81 fungi and 235 ceratine were
collected. Then, smaller patches were extracted containing 2062 fungi and 2142
ceratine. In order to detect fungus and ceratine, two models were created one
of which was a custom neural network and the other was based on the VGG16
architecture. The developed custom model had 99.84% accuracy, and an area under
the curve (AUC) value of 1.00, while the VGG16 model had 98.89% accuracy and an
AUC value of 0.99. However, average accuracy and AUC value of clinicians is
72.8% and 0.87 respectively. This deep learning model allows the development of
an automated system that can detect fungi within microscopic images.
- Abstract(参考訳): 臨床皮膚学は依然として、蛍光顕微鏡を用いた水酸化カリウム(KOH)溶液中の真菌の手動検査に大きく依存している。
しかし, この手法は, 臨床医の経験に基づいて長い時間を要するため, 精度が低い。
臨床顕微鏡の分野でのニューラルネットワーク応用の増加により、そのような手動プロセスの自動化が効率と正確性の両方を向上させることができる。
本研究では,これらの問題を高速に解き,着色料を使わずにグレースケール画像の自動菌類検出を行うディープニューラルネットワーク構造を提案する。
81菌と235ケラチンの顕微鏡画像が得られた。
そして2062菌と2142ケラチンを含む小さなパッチを抽出した。
真菌とセラチンを検出するために、2つのモデルが作られ、そのうちの1つはカスタムニューラルネットワークであり、もう1つはVGG16アーキテクチャに基づいている。
開発されたカスタムモデルは99.84%の精度で曲線(AUC)の値が1.00であり、VGG16の精度は98.89%、AUCの値が0.99である。
しかし、臨床医の平均精度は72.8%、AUC値は0.87である。
このディープラーニングモデルは、顕微鏡画像内の菌類を検出する自動システムの開発を可能にする。
関連論文リスト
- Improving Performance in Colorectal Cancer Histology Decomposition using
Deep and Ensemble Machine Learning [0.7437806321813133]
組織学的にヘマトキシリンとエオシンで染色されたサンプルは、一般的に大腸癌管理に用いられている。
近年の研究では、手軽に利用できる画像から臨床関連バイオマーカーの抽出を容易にするための畳み込みニューラルネットワーク(CNN)の可能性を強調している。
CNNベースのバイオマーカーは、スピード、自動化、最小コストの利点を付加して、患者の結果をゴールデンスタンダードと同等に予測することができる。
論文 参考訳(メタデータ) (2023-10-25T19:46:27Z) - Evolving Tsukamoto Neuro Fuzzy Model for Multiclass Covid 19
Classification with Chest X Ray Images [2.609784101826762]
本稿では,Covid 19の検出のための機械学習ベースのフレームワークを提案する。
提案モデルでは,コビッド19病の同定と識別に塚本神経ファジィ推論ネットワークを用いている。
提案したモデルは精度98.51%、感度98.35%、特異度98.08%、F1スコア98.17%を達成する。
論文 参考訳(メタデータ) (2023-05-17T17:55:45Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Automated segmentation of microvessels in intravascular OCT images using
deep learning [0.0]
血管内光コヒーレンス断層撮影(IV OCT)画像における微小血管の自動検出法を開発した。
85病変,37病変から8,403例のOCT画像フレームを解析した。
本手法は,698枚の画像フレームに微小血管が存在するのに対し,手動による解析では730枚の画像フレームが4.4%の差を示した。
論文 参考訳(メタデータ) (2022-10-01T02:14:14Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Acute Lymphoblastic Leukemia Detection from Microscopic Images Using
Weighted Ensemble of Convolutional Neural Networks [4.095759108304108]
本稿では,深層畳み込みニューラルネットワーク(cnns)を用いた顕微鏡細胞画像からの全検出タスクを自動化した。
ネットワークのより優れた一般化を達成するために、様々なデータ拡張と前処理が組み込まれている。
提案する重み付きアンサンブルモデルでは, アンサンブル候補のカッパ値を重みとして, 重み付きF1スコア88.6 %, バランス付き精度86.2 %, 予備試験セットのAUC0.941を出力した。
論文 参考訳(メタデータ) (2021-05-09T18:58:48Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。