論文の概要: The Development and Performance of a Machine Learning Based Mobile
Platform for Visually Determining the Etiology of Penile Pathology
- arxiv url: http://arxiv.org/abs/2403.08417v1
- Date: Wed, 13 Mar 2024 11:05:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 14:43:34.263718
- Title: The Development and Performance of a Machine Learning Based Mobile
Platform for Visually Determining the Etiology of Penile Pathology
- Title(参考訳): 機械学習に基づくモバイルの開発と性能
小児病理の病因を視覚的に決定するプラットフォーム
- Authors: Lao-Tzu Allan-Blitz, Sithira Ambepitiya, Raghavendra Tirupathi,
Jeffrey D. Klausner, Yudara Kularathne
- Abstract要約: 我々は5つのペニス病を分類する機械学習モデルを開発した。
このモデルは現在世界中で使用されており、ペニス病の診断サービスへのアクセスを改善する可能性を秘めている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine-learning algorithms can facilitate low-cost, user-guided visual
diagnostic platforms for addressing disparities in access to sexual health
services. We developed a clinical image dataset using original and augmented
images for five penile diseases: herpes eruption, syphilitic chancres, penile
candidiasis, penile cancer, and genital warts. We used a U-net architecture
model for semantic pixel segmentation into background or subject image, the
Inception-ResNet version 2 neural architecture to classify each pixel as
diseased or non-diseased, and a salience map using GradCAM++. We trained the
model on a random 91% sample of the image database using 150 epochs per image,
and evaluated the model on the remaining 9% of images, assessing recall (or
sensitivity), precision, specificity, and F1-score (accuracy). Of the 239
images in the validation dataset, 45 (18.8%) were of genital warts, 43 (18.0%)
were of HSV infection, 29 (12.1%) were of penile cancer, 40 (16.7%) were of
penile candidiasis, 37 (15.5%) were of syphilitic chancres, and 45 (18.8%) were
of non-diseased penises. The overall accuracy of the model for correctly
classifying the diseased image was 0.944. Between July 1st and October 1st
2023, there were 2,640 unique users of the mobile platform. Among a random
sample of submissions (n=437), 271 (62.0%) were from the United States, 64
(14.6%) from Singapore, 41 (9.4%) from Candia, 40 (9.2%) from the United
Kingdom, and 21 (4.8%) from Vietnam. The majority (n=277 [63.4%]) were between
18 and 30 years old. We report on the development of a machine-learning model
for classifying five penile diseases, which demonstrated excellent performance
on a validation dataset. That model is currently in use globally and has the
potential to improve access to diagnostic services for penile diseases.
- Abstract(参考訳): 機械学習アルゴリズムは、性的健康サービスへのアクセスにおける格差に対処するために、低コストでユーザガイド付きビジュアル診断プラットフォームを促進することができる。
本研究は, 陰茎破裂, 梅毒シャンクレス, 陰茎カンジダ症, 陰茎癌, 生殖器の5つの疾患に対して, 原画像と増感画像を用いた臨床像データセットを開発した。
Inception-ResNetバージョン2のニューラルアーキテクチャを用いて、各ピクセルを疾患または非疾患と分類し、GradCAM++を用いたサリエンスマップを作成した。
画像毎150エポックを用いて画像データベースのランダムな91%のサンプルを用いてモデルを訓練し、残りの9%のイメージに対して、リコール(または感度)、精度、特異性、F1スコア(精度)を評価した。
検証データセットの239枚の画像のうち、45 (18.8%) は性器用ワート、43 (18.0%) はHSV感染症、29 (12.1%) は陰茎癌、40 (16.7%) は陰茎性カンジダ症、37 (15.5%) は梅毒性シャンク、45 (18.8%) は非溶解性ペニスである。
疾患像を正しく分類するためのモデルの総合的精度は0.944。
2023年7月1日から10月1日までの間に、このモバイルプラットフォームには2,640人のユニークユーザーがいた。
ランダムなサンプル(n=437)のうち271(62.0%)はアメリカから64(14.6%)、カンディアから41(9.4%)、イギリスから40(9.2%)、ベトナムから21(4.8%)であった。
過半数(n=277 [63.4%)は18歳から30歳の間である。
本稿では,5つの小児疾患を分類する機械学習モデルの開発について報告する。
このモデルは現在世界中で使用されており、ペニス病の診断サービスへのアクセスを改善する可能性を秘めている。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Crowdsourcing Dermatology Images with Google Search Ads: Creating a
Real-World Skin Condition Dataset [7.60704693971239]
このデータセットは、2023年3月から8ヶ月にわたって、米国のインターネットユーザーから5,033件のコントリビューションから10,408件の画像を含んでいる。
女性(66.72%)と若年(52%が40歳)のコントリビューターは、アメリカの人口と比較してデータセットの表現率が高い。
鑑別診断における皮膚科医の信頼性は, 変数数の増加とともに増大した。
論文 参考訳(メタデータ) (2024-02-28T18:29:07Z) - Unmasking Parkinson's Disease with Smile: An AI-enabled Screening Framework [2.4914378616592505]
このデータセットは、PDの256人、臨床診断165人、自己申告91人を含む。
参加者はウェブカメラを使って 3つの表情を模倣しました
顔のランドマークは自動的に記録から追跡され、低体温症に関連する特徴を抽出する。
機械学習アルゴリズムはこれらの特徴に基づいて訓練され、PDの有無に関わらず個人を区別する。
論文 参考訳(メタデータ) (2023-08-03T18:23:37Z) - Improving image quality of sparse-view lung tumor CT images with U-Net [3.5655865803527718]
肺転移検出のためのU-Netを用いて,スパースビューCT画像の画質向上を目的とした。
プロジェクションビューは、IQを維持しながら2,048から64に減少し、良好なレベルで放射線学者の信頼性を維持することができる。
論文 参考訳(メタデータ) (2023-07-28T12:03:55Z) - Advancing COVID-19 Diagnosis with Privacy-Preserving Collaboration in
Artificial Intelligence [79.038671794961]
我々はUCADI(Unified CT-COVID AI Diagnostic Initiative)を立ち上げ、各ホスト機関でAIモデルを分散的にトレーニングし、独立して実行することができる。
本研究は,中国とイギリスに所在する23の病院で採取した3,336例の胸部CT9,573例について検討した。
論文 参考訳(メタデータ) (2021-11-18T00:43:41Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Automatic Detection and Classification of Tick-borne Skin Lesions using
Deep Learning [7.6146285961466]
この研究は、さまざまな畳み込みニューラルネットワークモデルを用いて、粘着性皮膚病変を検出することによって、Burlinaらによるアプローチに基づいている。
われわれは、Googleから7つの言語で画像を取得してデータ入力を拡張し、トレーニングデータを多様化し、皮膚病変検出の精度を向上させるかどうかを検証した。
論文 参考訳(メタデータ) (2020-11-23T15:16:14Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。