論文の概要: Ear-Keeper: Real-time Diagnosis of Ear Lesions Utilizing Ultralight-Ultrafast ConvNet and Large-scale Ear Endoscopic Dataset
- arxiv url: http://arxiv.org/abs/2308.10610v4
- Date: Wed, 10 Apr 2024 08:16:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 19:35:31.943407
- Title: Ear-Keeper: Real-time Diagnosis of Ear Lesions Utilizing Ultralight-Ultrafast ConvNet and Large-scale Ear Endoscopic Dataset
- Title(参考訳): Ear-Keeper:Ultrafast ConvNetと大規模耳内視鏡を用いた耳病変のリアルタイム診断
- Authors: Yubiao Yue, Xinyu Zeng, Xiaoqiang Shi, Meiping Zhang, Fan Zhang, Yunxin Liang, Yan Liu, Zhenzhang Li, Yang Li,
- Abstract要約: リアルタイム耳疾患診断が可能な超高速・超軽量ネットワークBest-EarNetを提案する。
パラメータ0.77Mしか持たないBest-EarNetの精度は95.23%(内部22,581枚)、92.14%(外部1,652枚)である。
Best-EarNetをベースとしたインテリジェント診断システムであるEar-Keeperが成功し、一般的な電子機器にデプロイされた。
- 参考スコア(独自算出の注目度): 7.5179664143779075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based ear disease diagnosis technology has proven effective and affordable. However, due to the lack of ear endoscope datasets with diversity, the practical potential of the deep learning model has not been thoroughly studied. Moreover, existing research failed to achieve a good trade-off between model inference speed and parameter size, rendering models inapplicable in real-world settings. To address these challenges, we constructed the first large-scale ear endoscopic dataset comprising eight types of ear diseases and disease-free samples from two institutions. Inspired by ShuffleNetV2, we proposed Best-EarNet, an ultrafast and ultralight network enabling real-time ear disease diagnosis. Best-EarNet incorporates a novel Local-Global Spatial Feature Fusion Module and multi-scale supervision strategy, which facilitates the model focusing on global-local information within feature maps at various levels. Utilizing transfer learning, the accuracy of Best-EarNet with only 0.77M parameters achieves 95.23% (internal 22,581 images) and 92.14% (external 1,652 images), respectively. In particular, it achieves an average frame per second of 80 on the CPU. From the perspective of model practicality, the proposed Best-EarNet is superior to state-of-the-art backbone models in ear lesion detection tasks. Most importantly, Ear-keeper, an intelligent diagnosis system based Best-EarNet, was developed successfully and deployed on common electronic devices (smartphone, tablet computer and personal computer). In the future, Ear-Keeper has the potential to assist the public and healthcare providers in performing comprehensive scanning and diagnosis of the ear canal in real-time video, thereby promptly detecting ear lesions.
- Abstract(参考訳): 深層学習に基づく耳疾患診断技術は、効果的で安価であることが証明されている。
しかし, 多様な耳内視鏡データセットが欠如しているため, 深層学習モデルの実用化の可能性は十分に研究されていない。
さらに、既存の研究は、モデル推論速度とパラメータサイズの間の良いトレードオフを達成できず、実際の環境ではモデルは適用できない。
これらの課題に対処するため,2つの施設から8種類の耳疾患と無疾患サンプルからなる,最初の大規模耳内視鏡的データセットを構築した。
ShuffleNetV2にインスパイアされた我々は、リアルタイム耳疾患の診断を可能にする超高速で超軽量なネットワークであるBest-EarNetを提案した。
Best-EarNetは、新しいローカル・グローバル空間特徴融合モジュールと、様々なレベルの特徴マップ内のグローバルローカル情報に焦点を当てたモデルを容易にするマルチスケール監視戦略を取り入れている。
転送学習を利用すると、0.77Mパラメータしか持たないBest-EarNetの精度は95.23%(内部22,581枚)と92.14%(外部1,652枚)である。
特に、CPU上の80秒あたりの平均フレームを達成する。
モデル実用性の観点からは、Best-EarNetは耳病変検出タスクにおける最先端のバックボーンモデルよりも優れている。
最も重要なことは、インテリジェント診断システムBest-EarNetをベースにしたEar-keeperが成功し、一般的な電子機器(スマートフォン、タブレットコンピュータ、パーソナルコンピュータ)にデプロイされたことである。
将来的には、Ear-Keeperは、公的および医療機関がリアルタイムで耳管の包括的スキャンと診断を行うことで、耳の病変を迅速に検出する可能性を秘めている。
関連論文リスト
- Privacy-Preserving Federated Foundation Model for Generalist Ultrasound Artificial Intelligence [83.02106623401885]
プライバシー保護型超音波基礎モデルであるUltraFedFMを提案する。
UltraFedFMは、9か国の16の分散医療機関にわたる連合学習を用いて、協調的に事前訓練されている。
疾患診断には0.927のレシーバ動作特性曲線、病変セグメント化には0.878のサイス類似係数を平均的に達成する。
論文 参考訳(メタデータ) (2024-11-25T13:40:11Z) - MADE-for-ASD: A Multi-Atlas Deep Ensemble Network for Diagnosing Autism Spectrum Disorder [4.7377709803078325]
本稿では,従来の診断手法と潜在的な自動化ソリューションのギャップを埋める。
我々は,脳の機能的磁気共鳴画像(fMRI)データの複数のアトラスを統合するマルチアトラスディープアンサンブルネットワーク,MADE-for-ASDを提案する。
提案手法は,ASD診断性能を向上させるための予測ワークフローに,人口統計情報を統合する。
論文 参考訳(メタデータ) (2024-07-09T17:49:23Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Detecting Speech Abnormalities with a Perceiver-based Sequence
Classifier that Leverages a Universal Speech Model [4.503292461488901]
いくつかの神経疾患の音声反射異常を検出するPerceiver-based sequenceを提案する。
このシーケンスとUniversal Speech Model (USM)を組み合わせ、1200万時間に及ぶ多様な音声録音をトレーニング(教師なし)する。
我々のモデルは標準変圧器 (80.9%) および知覚器 (81.8%) モデルより優れ、平均精度は83.1%である。
論文 参考訳(メタデータ) (2023-10-16T21:07:12Z) - The role of noise in denoising models for anomaly detection in medical
images [62.0532151156057]
病理脳病変は脳画像に多彩な外観を示す。
正規データのみを用いた教師なし異常検出手法が提案されている。
空間分解能の最適化と雑音の大きさの最適化により,異なるモデル学習体制の性能が向上することを示す。
論文 参考訳(メタデータ) (2023-01-19T21:39:38Z) - A Meta-GNN approach to personalized seizure detection and classification [53.906130332172324]
本稿では,特定の患者に限られた発作サンプルから迅速に適応できるパーソナライズされた発作検出・分類フレームワークを提案する。
トレーニング患者の集合からグローバルモデルを学ぶメタGNNベースの分類器を訓練する。
本手法は, 未確認患者20回に限って, 精度82.7%, F1スコア82.08%を達成し, ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-11-01T14:12:58Z) - Side-aware Meta-Learning for Cross-Dataset Listener Diagnosis with
Subjective Tinnitus [38.66127142638335]
本稿では,クロスデータセット・ティンニタス診断のための側面認識メタラーニングを提案する。
本手法は,クロスデータセット分類において73.8%の精度を実現する。
論文 参考訳(メタデータ) (2022-05-03T03:17:44Z) - Multiple Time Series Fusion Based on LSTM An Application to CAP A Phase
Classification Using EEG [56.155331323304]
本研究では,深層学習に基づく脳波チャンネルの特徴レベル融合を行う。
チャネル選択,融合,分類手順を2つの最適化アルゴリズムで最適化した。
論文 参考訳(メタデータ) (2021-12-18T14:17:49Z) - Novel EEG based Schizophrenia Detection with IoMT Framework for Smart
Healthcare [0.0]
統合失調症(Sz)は、世界中の人々の思考、行動、感情に深刻な影響を及ぼす脳障害である。
EEGは非線形時系列信号であり、その非線形構造のために調査に利用することがかなり重要である。
本稿では,深層学習を用いた脳波を用いたSz検出の性能向上を目的とする。
論文 参考訳(メタデータ) (2021-11-19T18:21:20Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z) - UESegNet: Context Aware Unconstrained ROI Segmentation Networks for Ear
Biometric [8.187718963808484]
耳のバイオメトリックスは 制約のない環境において かなりの困難を抱えています
野生における耳の局所化の問題に対処するため、我々は2つの高性能興味領域分割モデル UESegNet-1 と UESegNet-2 を提案している。
モデルの一般化をテストするために、6つの異なるベンチマークデータセットで評価される。
論文 参考訳(メタデータ) (2020-10-08T14:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。