論文の概要: Ultrafast and Ultralight Network-Based Intelligent System for Real-time
Diagnosis of Ear diseases in Any Devices
- arxiv url: http://arxiv.org/abs/2308.10610v1
- Date: Mon, 21 Aug 2023 10:20:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 13:57:19.733749
- Title: Ultrafast and Ultralight Network-Based Intelligent System for Real-time
Diagnosis of Ear diseases in Any Devices
- Title(参考訳): 超高速・超軽量ネットワークを用いた耳疾患のリアルタイム診断システム
- Authors: Yubiao Yue, Xinyu Zeng, Xiaoqiang Shi, Meiping Zhang, Haihua Liang,
Fan Zhang, Yanmei Chen, Zefeng Xie, Wenrui Wu, Zhenzhang Li
- Abstract要約: リアルタイム耳疾患診断が可能な超高速・超軽量ネットワークBest-EarNetを開発した。
0.77Mパラメータで、Best-EarNetはCPU上で80秒毎の平均フレームを達成する。
また、一般的な電子デバイスにデプロイ可能なEar Keeperを開発した。
- 参考スコア(独自算出の注目度): 2.255194392361022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional ear disease diagnosis heavily depends on experienced specialists
and specialized equipment, frequently resulting in misdiagnoses, treatment
delays, and financial burdens for some patients. Utilizing deep learning models
for efficient ear disease diagnosis has proven effective and affordable.
However, existing research overlooked model inference speed and parameter size
required for deployment. To tackle these challenges, we constructed a
large-scale dataset comprising eight ear disease categories and normal ear
canal samples from two hospitals. Inspired by ShuffleNetV2, we developed
Best-EarNet, an ultrafast and ultralight network enabling real-time ear disease
diagnosis. Best-EarNet incorporates the novel Local-Global Spatial Feature
Fusion Module which can capture global and local spatial information
simultaneously and guide the network to focus on crucial regions within feature
maps at various levels, mitigating low accuracy issues. Moreover, our network
uses multiple auxiliary classification heads for efficient parameter
optimization. With 0.77M parameters, Best-EarNet achieves an average frames per
second of 80 on CPU. Employing transfer learning and five-fold cross-validation
with 22,581 images from Hospital-1, the model achieves an impressive 95.23%
accuracy. External testing on 1,652 images from Hospital-2 validates its
performance, yielding 92.14% accuracy. Compared to state-of-the-art networks,
Best-EarNet establishes a new state-of-the-art (SOTA) in practical
applications. Most importantly, we developed an intelligent diagnosis system
called Ear Keeper, which can be deployed on common electronic devices. By
manipulating a compact electronic otoscope, users can perform comprehensive
scanning and diagnosis of the ear canal using real-time video. This study
provides a novel paradigm for ear endoscopy and other medical endoscopic image
recognition applications.
- Abstract(参考訳): 従来の耳疾患の診断は経験豊富な専門医や専門機器に大きく依存しており、しばしば誤診、治療遅延、一部の患者に対する金銭的負担が生じる。
効率的な耳疾患診断のためのディープラーニングモデルの利用は、効果的で安価であることが証明されている。
しかし、既存の研究では、配置に必要なモデル推論速度とパラメータサイズを見落としていた。
これらの課題に対処するため,2つの病院から8つの耳疾患カテゴリと正常な耳道サンプルからなる大規模データセットを構築した。
ShuffleNetV2に触発されて,リアルタイム耳疾患診断を可能にする超高速・超軽量ネットワークBest-EarNetを開発した。
Best-EarNetは、グローバルとローカルの空間情報を同時にキャプチャし、様々なレベルの特徴マップ内の重要な領域に集中するようにネットワークを誘導し、低い精度の問題を緩和する、新しいローカル・グローバル空間特徴融合モジュールを組み込んでいる。
さらに,効率的なパラメータ最適化のために,複数の補助分類ヘッドを用いる。
0.77Mパラメータで、Best-EarNetはCPU上で80秒毎の平均フレームを達成する。
転送学習と22,581の画像による5倍クロスバリデーションを用いることで、95.23%の精度が得られる。
病院2の1,652枚の画像の外部検査では、その性能が92.14%の精度で検証されている。
最先端ネットワークと比較して、Best-EarNetは実用用途に新しい最先端(SOTA)を確立する。
最も重要なことは、Ear Keeperと呼ばれるインテリジェントな診断システムを開発し、一般的な電子機器にデプロイできることです。
小型の電子内視鏡を操作することで、ユーザはリアルタイムビデオを用いて耳道の包括的スキャンと診断を行うことができる。
本研究は耳内内視鏡および他の医用内視鏡画像認識応用のための新しいパラダイムを提供する。
関連論文リスト
- Privacy-Preserving Federated Foundation Model for Generalist Ultrasound Artificial Intelligence [83.02106623401885]
プライバシー保護型超音波基礎モデルであるUltraFedFMを提案する。
UltraFedFMは、9か国の16の分散医療機関にわたる連合学習を用いて、協調的に事前訓練されている。
疾患診断には0.927のレシーバ動作特性曲線、病変セグメント化には0.878のサイス類似係数を平均的に達成する。
論文 参考訳(メタデータ) (2024-11-25T13:40:11Z) - MADE-for-ASD: A Multi-Atlas Deep Ensemble Network for Diagnosing Autism Spectrum Disorder [4.7377709803078325]
本稿では,従来の診断手法と潜在的な自動化ソリューションのギャップを埋める。
我々は,脳の機能的磁気共鳴画像(fMRI)データの複数のアトラスを統合するマルチアトラスディープアンサンブルネットワーク,MADE-for-ASDを提案する。
提案手法は,ASD診断性能を向上させるための予測ワークフローに,人口統計情報を統合する。
論文 参考訳(メタデータ) (2024-07-09T17:49:23Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Detecting Speech Abnormalities with a Perceiver-based Sequence
Classifier that Leverages a Universal Speech Model [4.503292461488901]
いくつかの神経疾患の音声反射異常を検出するPerceiver-based sequenceを提案する。
このシーケンスとUniversal Speech Model (USM)を組み合わせ、1200万時間に及ぶ多様な音声録音をトレーニング(教師なし)する。
我々のモデルは標準変圧器 (80.9%) および知覚器 (81.8%) モデルより優れ、平均精度は83.1%である。
論文 参考訳(メタデータ) (2023-10-16T21:07:12Z) - The role of noise in denoising models for anomaly detection in medical
images [62.0532151156057]
病理脳病変は脳画像に多彩な外観を示す。
正規データのみを用いた教師なし異常検出手法が提案されている。
空間分解能の最適化と雑音の大きさの最適化により,異なるモデル学習体制の性能が向上することを示す。
論文 参考訳(メタデータ) (2023-01-19T21:39:38Z) - A Meta-GNN approach to personalized seizure detection and classification [53.906130332172324]
本稿では,特定の患者に限られた発作サンプルから迅速に適応できるパーソナライズされた発作検出・分類フレームワークを提案する。
トレーニング患者の集合からグローバルモデルを学ぶメタGNNベースの分類器を訓練する。
本手法は, 未確認患者20回に限って, 精度82.7%, F1スコア82.08%を達成し, ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-11-01T14:12:58Z) - Side-aware Meta-Learning for Cross-Dataset Listener Diagnosis with
Subjective Tinnitus [38.66127142638335]
本稿では,クロスデータセット・ティンニタス診断のための側面認識メタラーニングを提案する。
本手法は,クロスデータセット分類において73.8%の精度を実現する。
論文 参考訳(メタデータ) (2022-05-03T03:17:44Z) - Multiple Time Series Fusion Based on LSTM An Application to CAP A Phase
Classification Using EEG [56.155331323304]
本研究では,深層学習に基づく脳波チャンネルの特徴レベル融合を行う。
チャネル選択,融合,分類手順を2つの最適化アルゴリズムで最適化した。
論文 参考訳(メタデータ) (2021-12-18T14:17:49Z) - Novel EEG based Schizophrenia Detection with IoMT Framework for Smart
Healthcare [0.0]
統合失調症(Sz)は、世界中の人々の思考、行動、感情に深刻な影響を及ぼす脳障害である。
EEGは非線形時系列信号であり、その非線形構造のために調査に利用することがかなり重要である。
本稿では,深層学習を用いた脳波を用いたSz検出の性能向上を目的とする。
論文 参考訳(メタデータ) (2021-11-19T18:21:20Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z) - UESegNet: Context Aware Unconstrained ROI Segmentation Networks for Ear
Biometric [8.187718963808484]
耳のバイオメトリックスは 制約のない環境において かなりの困難を抱えています
野生における耳の局所化の問題に対処するため、我々は2つの高性能興味領域分割モデル UESegNet-1 と UESegNet-2 を提案している。
モデルの一般化をテストするために、6つの異なるベンチマークデータセットで評価される。
論文 参考訳(メタデータ) (2020-10-08T14:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。