論文の概要: Fine-tuned Vision Language Model for Localization of Parasitic Eggs in Microscopic Images
- arxiv url: http://arxiv.org/abs/2602.13712v1
- Date: Sat, 14 Feb 2026 10:25:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.356131
- Title: Fine-tuned Vision Language Model for Localization of Parasitic Eggs in Microscopic Images
- Title(参考訳): 顕微鏡画像における寄生卵の局在のための微調整視覚言語モデル
- Authors: Chan Hao Sien, Hezerul Abdul Karim, Nouar AlDahoul,
- Abstract要約: 本稿では,顕微鏡画像中の寄生卵の局在を微調整したMicrosoft Florenceのような視覚言語モデル(VLM)を活用することを目的とする。
予備的な結果から、VLMの局所化は、EfficientDetのような他のオブジェクト検出方法よりも比較的優れており、mIOUは0.94であることがわかった。
- 参考スコア(独自算出の注目度): 0.8921166277011344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Soil-transmitted helminth (STH) infections continuously affect a large proportion of the global population, particularly in tropical and sub-tropical regions, where access to specialized diagnostic expertise is limited. Although manual microscopic diagnosis of parasitic eggs remains the diagnostic gold standard, the approach can be labour-intensive, time-consuming, and prone to human error. This paper aims to utilize a vision language model (VLM) such as Microsoft Florence that was fine-tuned to localize all parasitic eggs within microscopic images. The preliminary results show that our localization VLM performs comparatively better than the other object detection methods, such as EfficientDet, with an mIOU of 0.94. This finding demonstrates the potential of the proposed VLM to serve as a core component of an automated framework, offering a scalable engineering solution for intelligent parasitological diagnosis.
- Abstract(参考訳): 土壌感染性ヘルシンス(STH)感染は、特に専門的な専門知識へのアクセスが限られている熱帯・亜熱帯地域において、世界の人口の大部分に連続的に影響を与えている。
手動による寄生卵の診断は金の診断基準として残っているが、そのアプローチは労働集約的であり、時間を要する。
本稿では,顕微鏡画像中の寄生卵の局在を微調整したMicrosoft Florenceのような視覚言語モデル(VLM)を活用することを目的とする。
予備的な結果から、VLMの局所化は、EfficientDetのような他のオブジェクト検出方法よりも比較的優れており、mIOUは0.94であることがわかった。
この発見は、自動化フレームワークのコアコンポーネントとして機能し、インテリジェントな寄生虫診断のためのスケーラブルなエンジニアリングソリューションを提供するVLMの可能性を実証している。
関連論文リスト
- Unveiling and Bridging the Functional Perception Gap in MLLMs: Atomic Visual Alignment and Hierarchical Evaluation via PET-Bench [48.60251555171943]
MLLM(Multimodal Large Language Models)は、異常検出や解剖学的モダリティのレポート生成などのタスクにおいて、顕著な熟練性を示した。
本研究では, 機能的トレーサの生体分布を, 形態的先行性とは無関係に復号化できない現状の視覚エンコーダについて, 基本的な機能的知覚ギャップを定量化する。
PET-Benchは52,308個の階層型QAペアからなるPET-Benchの最初の大規模機能評価ベンチマークである。
AVAは認知ギャップを効果的に橋渡しし、CoTを幻覚源から頑健な推論ツールに変換し、診断を改善していることを示す。
論文 参考訳(メタデータ) (2026-01-06T05:58:50Z) - LMOD+: A Comprehensive Multimodal Dataset and Benchmark for Developing and Evaluating Multimodal Large Language Models in Ophthalmology [43.092364533480456]
視力低下の眼疾患は、労働力不足によるタイムリーな診断と専門医療へのアクセス制限により、世界的な健康上の重荷となる。
本報告では,12の眼球運動条件に共通する多粒性アノテーションと5つの画像モダリティを併用した32,633例の大規模マルチモーダル眼科ベンチマークを報告する。
このデータセットは、画像、解剖学的構造、人口統計、自由テキストアノテーションを統合し、解剖学的構造認識、疾患スクリーニング、疾患ステージング、およびバイアス評価のための人口統計予測をサポートする。
論文 参考訳(メタデータ) (2025-09-30T00:29:18Z) - Constructing Ophthalmic MLLM for Positioning-diagnosis Collaboration Through Clinical Cognitive Chain Reasoning [0.5360375691077625]
FundusExpertは眼科固有のMLLMであり、位置決め-診断推論機能を備えている。
FundusGenはインテリジェントなFundus-Engineシステムを通じて構築されたデータセットである。
論文 参考訳(メタデータ) (2025-07-23T14:19:30Z) - Improving Medical Large Vision-Language Models with Abnormal-Aware Feedback [57.98393950821579]
医学的異常を明らかにするための新しいUMed-LVLMを提案する。
本稿では,GPT-4Vを用いた診断手法を提案する。
UMed-LVLMは既存のMed-LVLMよりも医療異常の同定と理解に優れていた。
論文 参考訳(メタデータ) (2025-01-02T17:37:20Z) - Super-resolution of biomedical volumes with 2D supervision [84.5255884646906]
超解像のための仮設スライス拡散は、生物学的標本のすべての空間次元にわたるデータ生成分布の固有同値性を利用する。
我々は,高解像度2次元画像の高速取得を特徴とするSliceRの組織学的刺激(SRH)への応用に着目する。
論文 参考訳(メタデータ) (2024-04-15T02:41:55Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Localization and Classification of Parasitic Eggs in Microscopic Images
Using an EfficientDet Detector [0.0]
寄生卵を局在させ,11種に分類するマルチモーダル学習検出器を提案する。
その結果,92%の精度で頑健な成績を示し,F1スコアは93%であった。
論文 参考訳(メタデータ) (2022-08-03T10:28:18Z) - A Robust Ensemble Model for Patasitic Egg Detection and Classification [9.449507409551842]
腸内寄生虫感染症は、世界中で致死性の主要な原因となっているが、それでも時間節約、高感度、ユーザフレンドリーな検査方法が欠如している。
本稿では,顕微鏡画像中の寄生卵を自動的に識別するために,YOLOv5や変種カスケードRCNNなどの物体検出器を適用した。
論文 参考訳(メタデータ) (2022-07-04T13:53:46Z) - Parasitic Egg Detection and Classification in Low-cost Microscopic
Images using Transfer Learning [1.6050172226234583]
高品質な顕微鏡画像における自動寄生虫分類の効率を高めるために, トランスファーラーニング戦略を用いたCNNベースの手法を提案する。
提案するフレームワークは,最先端のオブジェクト認識手法よりも優れている。
本システムと専門家による最終決定が組み合わさって, 低コスト顕微鏡による実地精査を改善できる可能性がある。
論文 参考訳(メタデータ) (2021-07-02T11:05:45Z) - Inf-Net: Automatic COVID-19 Lung Infection Segmentation from CT Images [152.34988415258988]
CT画像からの肺感染症の自動検出は、新型コロナウイルスに対処するための従来の医療戦略を強化する大きな可能性を秘めている。
CTスライスから感染領域を分割することは、高い感染特性の変化、感染と正常な組織の間の低強度のコントラストなど、いくつかの課題に直面している。
これらの課題に対処するため, 胸部CTスライスから感染部位を自動的に同定する, 新型のCOVID-19 Deep Lung infection Network (Inf-Net) が提案されている。
論文 参考訳(メタデータ) (2020-04-22T07:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。