論文の概要: VisText-Mosquito: A Multimodal Dataset and Benchmark for AI-Based Mosquito Breeding Site Detection and Reasoning
- arxiv url: http://arxiv.org/abs/2506.14629v1
- Date: Tue, 17 Jun 2025 15:24:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.544136
- Title: VisText-Mosquito: A Multimodal Dataset and Benchmark for AI-Based Mosquito Breeding Site Detection and Reasoning
- Title(参考訳): VisText-Mosquito:AIベースのモスキート育種サイトの検出と推論のためのマルチモーダルデータセットとベンチマーク
- Authors: Md. Adnanul Islam, Md. Faiyaz Abdullah Sayeedi, Md. Asaduzzaman Shuvo, Muhammad Ziaur Rahman, Shahanur Rahman Bappy, Raiyan Rahman, Swakkhar Shatabda,
- Abstract要約: VisText-Mosquitoは、蚊繁殖サイト分析の自動検出、セグメンテーション、推論をサポートするマルチモーダルデータセットである。
データセットは、オブジェクト検出用1,828の注釈付き画像、水面セグメンテーション用142の画像、および各画像にリンクされた自然言語推論テキストを含む。
本稿では、AIによる検出が蚊が媒介する病気のリスクに積極的に対処する方法について述べる。
- 参考スコア(独自算出の注目度): 1.083674643223243
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mosquito-borne diseases pose a major global health risk, requiring early detection and proactive control of breeding sites to prevent outbreaks. In this paper, we present VisText-Mosquito, a multimodal dataset that integrates visual and textual data to support automated detection, segmentation, and reasoning for mosquito breeding site analysis. The dataset includes 1,828 annotated images for object detection, 142 images for water surface segmentation, and natural language reasoning texts linked to each image. The YOLOv9s model achieves the highest precision of 0.92926 and mAP@50 of 0.92891 for object detection, while YOLOv11n-Seg reaches a segmentation precision of 0.91587 and mAP@50 of 0.79795. For reasoning generation, our fine-tuned BLIP model achieves a final loss of 0.0028, with a BLEU score of 54.7, BERTScore of 0.91, and ROUGE-L of 0.87. This dataset and model framework emphasize the theme "Prevention is Better than Cure", showcasing how AI-based detection can proactively address mosquito-borne disease risks. The dataset and implementation code are publicly available at GitHub: https://github.com/adnanul-islam-jisun/VisText-Mosquito
- Abstract(参考訳): 蚊を媒介とする病気は世界的な健康リスクを招き、感染予防のため、早期発見と繁殖部位の予防的管理を必要としている。
本稿では,視覚とテキストのデータを統合したマルチモーダルデータセットであるVisText-Mosquitoについて述べる。
データセットは、オブジェクト検出用1,828の注釈付き画像、水面セグメンテーション用142の画像、および各画像にリンクされた自然言語推論テキストを含む。
YOLOv9sモデルは、オブジェクト検出のための0.92926とmAP@50の最高精度を達成する一方、YOLOv11n-Segは0.91587とmAP@50の0.79795のセグメンテーション精度に達する。
推論生成では, BLEUスコアが54.7, BERTScoreが0.91, ROUGE-Lが0.87, BLIPモデルが0.0028となる。
このデータセットとモデルフレームワークは、"Prevention is Better than Cure"というテーマを強調し、AIベースの検出が蚊が媒介する病気のリスクに積極的に対処する方法を示している。
データセットと実装コードはGitHubで公開されている。 https://github.com/adnanul-islam-jisun/VisText-Mosquito
関連論文リスト
- CRTRE: Causal Rule Generation with Target Trial Emulation Framework [47.2836994469923]
ターゲットトライアルエミュレーションフレームワーク(CRTRE)を用いた因果ルール生成という新しい手法を提案する。
CRTREは、アソシエーションルールの因果効果を推定するためにランダム化トライアル設計原則を適用している。
次に、病気発症予測などの下流アプリケーションにそのような関連ルールを組み込む。
論文 参考訳(メタデータ) (2024-11-10T02:40:06Z) - Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - Attention Based Feature Fusion Network for Monkeypox Skin Lesion Detection [0.09642500063568188]
最近のサルポックスの流行は公衆衛生に重大な懸念をもたらしている。
深層学習アルゴリズムは、新型コロナウイルス(COVID-19)を含む病気の特定に利用できる。
本稿では,ヒトサルポックス病を分類するために,事前学習した2つのアーキテクチャをマージする軽量モデルを提案する。
論文 参考訳(メタデータ) (2024-08-13T05:21:03Z) - MosquitoFusion: A Multiclass Dataset for Real-Time Detection of Mosquitoes, Swarms, and Breeding Sites Using Deep Learning [0.0]
1204種類の画像を含むマルチクラスデータセット(MosquitoFusion)を用いたリアルタイム蚊検出への統合的アプローチを提案する。
トレーニング済みのYOLOv8モデルは、このデータセットに基づいてトレーニングされ、平均平均精度(mAP@50)が57.1%、精度73.4%、リコール50.5%に達した。
論文 参考訳(メタデータ) (2024-04-01T21:49:05Z) - DeepSeaNet: Improving Underwater Object Detection using EfficientDet [0.0]
このプロジェクトでは、注釈付き水中データセット上で様々な物体検出モデルを実装し、評価する。
このデータセットは、Limfjorden水中で捕獲された魚、カニ、ヒトデ、その他の水生動物の注釈画像からなる。
I compare the results of YOLOv3 (31.10% mean Average Precision (mAP)), YOLOv4 (83.72% mAP), YOLOv5 (97.6%), YOLOv8 (98.20%), EfficientDet (98.56% mAP) and Detectron2 (95.20% mAP) on the same dataset。
論文 参考訳(メタデータ) (2023-05-26T13:41:35Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z) - End-to-End Zero-Shot HOI Detection via Vision and Language Knowledge
Distillation [86.41437210485932]
我々は、ゼロショットHOI検出を前進させ、同時に見えないHOIと見えないHOIの両方を検出することを目指している。
本稿では,視覚言語による知識蒸留によるエンドツーエンドのゼロショットHOI検出フレームワークを提案する。
本手法は, 従来のSOTAを8.92%, 全体の10.18%で上回っている。
論文 参考訳(メタデータ) (2022-04-01T07:27:19Z) - Semantic Segmentation of Anaemic RBCs Using Multilevel Deep
Convolutional Encoder-Decoder Network [2.5398817423053037]
赤血球のセグメンテーションのための畳み込みニューラルネットワーク(CNN)モデルを提案する。
提案モデルでは,1つの層から抽出した画素レベルの意味情報を保存し,次の層に渡して関連する特徴を選択する。
この現象は、形態学的解析とともに、健康および貧血-RBC元素のピクセルレベルを正確にカウントするのに役立つ。
論文 参考訳(メタデータ) (2022-02-09T17:31:50Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Automatic Detection of Aedes aegypti Breeding Grounds Based on Deep
Networks with Spatio-Temporal Consistency [2.4858193569899907]
Aedes aegypti 蚊はデングジカ、チクングニャ、都市部の黄熱といった病気に感染する。
これらの病気に対処するための主要な形態は、蚊の繁殖地を探し、排除することで蚊の繁殖を避けることである。
本研究では,蚊の繁殖場所を含む無人航空機で取得した航空映像の包括的データセットを紹介する。
論文 参考訳(メタデータ) (2020-07-29T14:30:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。