論文の概要: Detecting Aedes Aegypti Mosquitoes through Audio Classification with
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2008.09024v1
- Date: Wed, 19 Aug 2020 00:26:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 12:44:26.434001
- Title: Detecting Aedes Aegypti Mosquitoes through Audio Classification with
Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークを用いた音声分類によるaedes aegyptiモスキートの検出
- Authors: Marcelo Schreiber Fernandes, Weverton Cordeiro, Mariana
Recamonde-Mendoza
- Abstract要約: 蚊の流行に対するコミュニティの認識を高めるための戦略は、スマートフォンアプリとクラウドソーシングを使って、蚊の流行のライブマップを構築することである。
本稿では,市販スマートフォンから取得した機械学習技術と音声分析を用いて,Aedes aegypti 蚊の同定の可能性を検討する。
- 参考スコア(独自算出の注目度): 1.0323063834827415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The incidence of mosquito-borne diseases is significant in under-developed
regions, mostly due to the lack of resources to implement aggressive control
measurements against mosquito proliferation. A potential strategy to raise
community awareness regarding mosquito proliferation is building a live map of
mosquito incidences using smartphone apps and crowdsourcing. In this paper, we
explore the possibility of identifying Aedes aegypti mosquitoes using machine
learning techniques and audio analysis captured from commercially available
smartphones. In summary, we downsampled Aedes aegypti wingbeat recordings and
used them to train a convolutional neural network (CNN) through supervised
learning. As a feature, we used the recording spectrogram to represent the
mosquito wingbeat frequency over time visually. We trained and compared three
classifiers: a binary, a multiclass, and an ensemble of binary classifiers. In
our evaluation, the binary and ensemble models achieved accuracy of 97.65%
($\pm$ 0.55) and 94.56% ($\pm$ 0.77), respectively, whereas the multiclass had
an accuracy of 78.12% ($\pm$ 2.09). The best sensitivity was observed in the
ensemble approach (96.82% $\pm$ 1.62), followed by the multiclass for the
particular case of Aedes aegypti (90.23% $\pm$ 3.83) and the binary (88.49%
$\pm$ 6.68). The binary classifier and the multiclass classifier presented the
best balance between precision and recall, with F1-measure close to 90%.
Although the ensemble classifier achieved the lowest precision, thus impairing
its F1-measure (79.95% $\pm$ 2.13), it was the most powerful classifier to
detect Aedes aegypti in our dataset.
- Abstract(参考訳): 蚊が媒介する病気の発生は、主に蚊の増殖に対する攻撃的な制御測定を行うリソースが不足しているため、未発達の地域で顕著である。
蚊の増殖に関するコミュニティの認識を高める潜在的戦略は、スマートフォンアプリとクラウドソーシングを使って蚊の発生率のライブマップを構築することだ。
本稿では,市販スマートフォンから取得した機械学習技術と音声分析を用いて,Aedes aegypti 蚊の同定の可能性を検討する。
要約すると、aedes aegyptiのウィングビート記録をサンプリングし、教師付き学習による畳み込みニューラルネットワーク(cnn)のトレーニングに使用した。
特徴として,記録スペクトログラムを用いて蚊の羽ばたき回数を視覚的に表現した。
我々は、バイナリ、マルチクラス、バイナリ分類器のアンサンブルの3つの分類器を訓練し比較した。
評価では,バイナリモデルとアンサンブルモデルはそれぞれ97.65% (\pm$ 0.55) と94.56% (\pm$ 0.77) の精度を達成し,マルチクラスでは78.12% (\pm$ 2.09) の精度を示した。
最良の感度はアンサンブルアプローチ (96.82% $\pm$ 1.62) で観測され、次いで aedes aegypti (90.23% $\pm$ 3.83) とバイナリ (88.49% $\pm$ 6.68) の場合にはマルチクラスが観測された。
バイナリ分類器とマルチクラス分類器は精度とリコールの最良のバランスを示し、F1尺度は90%近くであった。
アンサンブル分類器は最も精度の低いF1測定器(79.95%$\pm$2.13)を欠いたものの、我々のデータセットでAedes aegyptiを検出する最も強力な分類器であった。
関連論文リスト
- Automated detection of Zika and dengue in Aedes aegypti using neural
spiking analysis [8.034395623865906]
Aedes aegypti 蚊は多くの医療上重要なウイルスの主要なベクターである。
現在、蚊にはオープンソースのニューラルスパイク分類方法がない。
我々は,非感染,デング熱,ジカ熱感染蚊の神経スパイクを分類する,革新的な人工知能に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T04:52:54Z) - Acoustic Identification of Ae. aegypti Mosquitoes using Smartphone Apps
and Residual Convolutional Neural Networks [0.8808021343665321]
我々は,Aedes aegypti 蚊の増殖に対する住民の意識を高めるために,低コストでデプロイが容易なスマートフォンアプリを提案する。
このようなスマートフォンアプリを開発するのは、さまざまな理由から難しい。スマートフォンのリソースを使って捕獲できる機能に基づいて蚊を識別するために必要な、成熟度の高い技術などだ。
論文 参考訳(メタデータ) (2023-06-16T13:41:01Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Application of Machine Learning to Sleep Stage Classification [0.7196441171503458]
睡眠研究は、睡眠喪失と精神病理に寄与するメカニズムの解明に関連する表現型を再カプセル化するために不可欠である。
多くの場合、調査員は手動でポリソムノグラフィーを警戒状態に分類する。
我々は,単一の脳波読み取りに基づいて警戒状態を確実に予測できる,自動かつオープンアクセスの分類器を作ることを目指している。
論文 参考訳(メタデータ) (2021-11-04T18:00:50Z) - A deep convolutional neural network for classification of Aedes
albopictus mosquitoes [1.6758573326215689]
本稿では2つのDeep Convolutional Neural Networksを,分類タスクの自動化のための比較研究に適用する。
移動学習の原理を用いて、Mosquito Alertプロジェクトが提供するデータに基づいて、2つの最先端アーキテクチャを訓練する。
さらに,Grad-CAMアルゴリズムに基づく説明可能なモデルを適用し,分類画像の最も識別性の高い領域を可視化した。
論文 参考訳(メタデータ) (2021-10-29T17:58:32Z) - High performing ensemble of convolutional neural networks for insect
pest image detection [124.23179560022761]
害虫の寄生は作物の被害の主な原因であり、世界中の収入を失った。
我々は異なるトポロジに基づいてCNNのアンサンブルを生成する。
ディープネットワーク最適化のための2つの新しいAdamアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-28T00:49:11Z) - An Efficient Insect Pest Classification Using Multiple Convolutional
Neural Network Based Models [0.3222802562733786]
昆虫の分類は、様々な種類、スケール、形状、フィールドの複雑な背景、昆虫種間の外観的類似性から難しい課題である。
本研究では、注目、特徴ピラミッド、きめ細かいモデルを含む、さまざまな畳み込みニューラルネットワークベースのモデルを提示する。
実験の結果、これらの畳み込みニューラルネットワークベースのモデルを組み合わせることで、これらの2つのデータセットの最先端の手法よりもパフォーマンスが向上することが示された。
論文 参考訳(メタデータ) (2021-07-26T12:53:28Z) - Ensemble of Convolution Neural Networks on Heterogeneous Signals for
Sleep Stage Scoring [63.30661835412352]
本稿では,脳波以外の追加信号の利用の利便性について検討し,比較する。
最も優れたモデルである深部分離畳み込みニューラルネットワークのアンサンブルは86.06%の精度を達成した。
論文 参考訳(メタデータ) (2021-07-23T06:37:38Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z) - Automatic sleep stage classification with deep residual networks in a
mixed-cohort setting [63.52264764099532]
我々は,大規模コホートの一般化性を評価するために,新しいディープニューラルネットワークモデルを開発した。
総合的な分類精度はトレーニングデータの分数を増やして向上した。
論文 参考訳(メタデータ) (2020-08-21T10:48:35Z) - Device-Robust Acoustic Scene Classification Based on Two-Stage
Categorization and Data Augmentation [63.98724740606457]
我々は,GT,USTC,Tencent,UKEの4つのグループからなる共同で,DCASE 2020 Challengeの第1タスク - 音響シーン分類(ASC)に取り組む。
タスク1aは、複数の(実とシミュレートされた)デバイスで記録されたオーディオ信号のASCを10種類の微細なクラスにフォーカスする。
Task 1bは、低複雑さのソリューションを使用して、データを3つの上位クラスに分類することに関心がある。
論文 参考訳(メタデータ) (2020-07-16T15:07:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。