論文の概要: Automating the Surveillance of Mosquito Vectors from Trapped Specimens
Using Computer Vision Techniques
- arxiv url: http://arxiv.org/abs/2005.12188v2
- Date: Tue, 21 Jul 2020 19:58:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 05:29:31.051420
- Title: Automating the Surveillance of Mosquito Vectors from Trapped Specimens
Using Computer Vision Techniques
- Title(参考訳): コンピュータビジョンを用いた捕獲標本からの蚊ベクター監視の自動化
- Authors: Mona Minakshi, Pratool Bharti, Willie B. McClinton III, Jamshidbek
Mirzakhalov, Ryan M. Carney, Sriram Chellappan
- Abstract要約: Aedes aegypti と Anopheles Stephensi の蚊(どちらも致命的なベクター)について研究した。
Inception-ResNet V2とTransfer Learningに基づくCNNモデルは、蚊の分類において全体の80%の精度を得た。
特に,Aedes aegypti と Anopheles stephensi の分類の精度が最も高い。
- 参考スコア(独自算出の注目度): 2.9822608774312327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Among all animals, mosquitoes are responsible for the most deaths worldwide.
Interestingly, not all types of mosquitoes spread diseases, but rather, a
select few alone are competent enough to do so. In the case of any disease
outbreak, an important first step is surveillance of vectors (i.e., those
mosquitoes capable of spreading diseases). To do this today, public health
workers lay several mosquito traps in the area of interest. Hundreds of
mosquitoes will get trapped. Naturally, among these hundreds, taxonomists have
to identify only the vectors to gauge their density. This process today is
manual, requires complex expertise/ training, and is based on visual inspection
of each trapped specimen under a microscope. It is long, stressful and
self-limiting. This paper presents an innovative solution to this problem. Our
technique assumes the presence of an embedded camera (similar to those in
smart-phones) that can take pictures of trapped mosquitoes. Our techniques
proposed here will then process these images to automatically classify the
genus and species type. Our CNN model based on Inception-ResNet V2 and Transfer
Learning yielded an overall accuracy of 80% in classifying mosquitoes when
trained on 25,867 images of 250 trapped mosquito vector specimens captured via
many smart-phone cameras. In particular, the accuracy of our model in
classifying Aedes aegypti and Anopheles stephensi mosquitoes (both of which are
deadly vectors) is amongst the highest. We present important lessons learned
and practical impact of our techniques towards the end of the paper.
- Abstract(参考訳): すべての動物の中で、蚊は世界中で最も多く死亡する原因となっている。
興味深いことに、すべての種類の蚊が病気を広げているわけではない。
感染症が発生した場合、重要な第一歩はベクター(病気を広めることのできる蚊)の監視である。
今日、公衆衛生従事者は関心のある地域にいくつかの蚊の罠を敷いている。
何百もの蚊が閉じ込められます。
当然、これらの数百のうち、分類学者は密度を測るベクトルのみを特定する必要がある。
今日のこのプロセスは手作業で、複雑な専門知識と訓練を必要とし、顕微鏡で観察された各標本の視覚的検査に基づいている。
長く、ストレスがあり、自発的です。
本稿では,この問題に対するイノベーティブな解決策を提案する。
この技術は、閉じ込められた蚊の写真を撮れる埋め込みカメラ(スマートフォンに似ています)の存在を想定しています。
ここで提案する手法は,これらの画像を処理して,属と種を自動的に分類する。
inception-resnet v2とtransport learningに基づくcnnモデルでは,多くのスマートフォンカメラで撮影された250個の蚊ベクター標本の25,867枚の画像から,蚊の分類に80%の精度が得られた。
特にaedes aegyptiとanopheles stephensi(どちらも致命的なベクターである)を分類するモデルの精度は高い。
論文の終わりに向けて,技術から学んだ重要な教訓と実践的影響を提示する。
関連論文リスト
- Insect Identification in the Wild: The AMI Dataset [35.41544843896443]
昆虫は世界の生物多様性の半分を占めるが、世界の昆虫の多くは姿を消している。
この危機にもかかわらず、昆虫の多様性と豊かさに関するデータはいまだに不十分である。
昆虫認識のための大規模な機械学習ベンチマークを初めて提供します。
論文 参考訳(メタデータ) (2024-06-18T09:57:02Z) - Automated detection of Zika and dengue in Aedes aegypti using neural
spiking analysis [8.034395623865906]
Aedes aegypti 蚊は多くの医療上重要なウイルスの主要なベクターである。
現在、蚊にはオープンソースのニューラルスパイク分類方法がない。
我々は,非感染,デング熱,ジカ熱感染蚊の神経スパイクを分類する,革新的な人工知能に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T04:52:54Z) - mAedesID: Android Application for Aedes Mosquito Species Identification
using Convolutional Neural Network [0.0]
Aedes 蚊ベクターの拡散を減らしてデング病を抑えることが重要である。
コミュニティの意識は、エイデスのプログラムを確実に制御し、コミュニティに活発な参加を促すために、厳しい役割を担っている。
深層学習畳み込みニューラルネットワーク (CNN) アルゴリズムを用いて, Aedes の蚊種を特定するモバイルアプリケーション mAedesID を開発した。
論文 参考訳(メタデータ) (2023-05-02T14:20:13Z) - A Mosquito is Worth 16x16 Larvae: Evaluation of Deep Learning
Architectures for Mosquito Larvae Classification [0.04170934882758552]
本研究では、視覚変換器(ViT)を応用して、AedesおよびCulex幼虫の画像分類を改善する。
ViT-BaseとCvT-13の2つのモデルと2つのCNNモデルであるResNet-18とConvNeXTは、蚊幼虫の画像データに基づいて訓練され、蚊幼虫をAedesまたはCulexと区別する最も効果的なモデルを決定するために比較された。
論文 参考訳(メタデータ) (2022-09-16T04:49:50Z) - A deep convolutional neural network for classification of Aedes
albopictus mosquitoes [1.6758573326215689]
本稿では2つのDeep Convolutional Neural Networksを,分類タスクの自動化のための比較研究に適用する。
移動学習の原理を用いて、Mosquito Alertプロジェクトが提供するデータに基づいて、2つの最先端アーキテクチャを訓練する。
さらに,Grad-CAMアルゴリズムに基づく説明可能なモデルを適用し,分類画像の最も識別性の高い領域を可視化した。
論文 参考訳(メタデータ) (2021-10-29T17:58:32Z) - HumBugDB: A Large-scale Acoustic Mosquito Dataset [15.108701811353097]
本稿では,蚊の飛行中を連続的に追跡した音響記録の大規模多種多様なデータセットについて述べる。
専門的にラベル付けされ、タグ付けされた20時間の音声記録を、正確に時間内に提示する。
18時間の録音には36種のアノテーションが含まれている。
論文 参考訳(メタデータ) (2021-10-14T14:18:17Z) - One-Shot Learning with Triplet Loss for Vegetation Classification Tasks [45.82374977939355]
三重項損失関数は、ワンショット学習タスクの精度を大幅に向上できる選択肢の1つである。
2015年からは、多くのプロジェクトがシームズネットワークとこの種の損失を顔認識とオブジェクト分類に利用している。
論文 参考訳(メタデータ) (2020-12-14T10:44:22Z) - Fooling the primate brain with minimal, targeted image manipulation [67.78919304747498]
本稿では、行動に反映される神経活動と知覚の両方の変化をもたらす、最小限の標的画像摂動を生成するための一連の手法を提案する。
我々の研究は、敵対的攻撃、すなわち最小限のターゲットノイズによる画像の操作で同じ目標を共有し、ANNモデルに画像の誤分類を誘導する。
論文 参考訳(メタデータ) (2020-11-11T08:30:54Z) - Cross-lingual Transfer Learning for COVID-19 Outbreak Alignment [90.12602012910465]
われわれは、Twitterを通じてイタリアの新型コロナウイルス感染症(COVID-19)の早期流行を訓練し、他のいくつかの国に移る。
実験の結果,クロスカントリー予測において最大0.85のスピアマン相関が得られた。
論文 参考訳(メタデータ) (2020-06-05T02:04:25Z) - Adversarial Fooling Beyond "Flipping the Label" [54.23547006072598]
CNNは、多くの重要なタスクにおいて、人間に近いか、人間のパフォーマンスよりも優れていることを示す。
これらの攻撃は、実際の展開において潜在的に危険である。
異なるCNNアーキテクチャの集合に対するいくつかの重要な敵攻撃を包括的に分析する。
論文 参考訳(メタデータ) (2020-04-27T13:21:03Z) - MetaPoison: Practical General-purpose Clean-label Data Poisoning [58.13959698513719]
データ中毒は、ニューラルネットワークの文脈における新たな脅威である。
メタポゾン(MetaPoison)は、メタラーニングによって二段階問題を近似し、ニューラルネットワークを騙す毒を発生させる一階法である。
ブラックボックスのGoogle Cloud AutoML APIでトレーニングされたモデルのデータ中毒が、初めて成功したことを実証します。
論文 参考訳(メタデータ) (2020-04-01T04:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。