論文の概要: A Domain-Adapted Lightweight Ensemble for Resource-Efficient Few-Shot Plant Disease Classification
- arxiv url: http://arxiv.org/abs/2512.13428v1
- Date: Mon, 15 Dec 2025 15:17:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.721092
- Title: A Domain-Adapted Lightweight Ensemble for Resource-Efficient Few-Shot Plant Disease Classification
- Title(参考訳): 資源効率の良いFew-Shot植物病分類のためのドメイン適応軽量アンサンブル
- Authors: Anika Islam, Tasfia Tahsin, Zaarin Anjum, Md. Bakhtiar Hasan, Md. Hasanul Kabir,
- Abstract要約: ドメイン適応型MobileNetV2モデルとMobileNetV3モデルを組み合わせた数ショットの学習手法を提案する。
分類タスクには、注意機構を付加したBi-LSTM分類器を通す。
1発から15発のパフォーマンスを継続的に改善し、15発で98.23+-0.33%に達した。
また、以前のSOTAの精度も96.4%向上し、15ショットの学習で99.72%を記録した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate and timely identification of plant leaf diseases is essential for resilient and sustainable agriculture, yet most deep learning approaches rely on large annotated datasets and computationally intensive models that are unsuitable for data-scarce and resource-constrained environments. To address these challenges we present a few-shot learning approach within a lightweight yet efficient framework that combines domain-adapted MobileNetV2 and MobileNetV3 models as feature extractors, along with a feature fusion technique to generate robust feature representation. For the classification task, the fused features are passed through a Bi-LSTM classifier enhanced with attention mechanisms to capture sequential dependencies and focus on the most relevant features, thereby achieving optimal classification performance even in complex, real-world environments with noisy or cluttered backgrounds. The proposed framework was evaluated across multiple experimental setups, including both laboratory-controlled and field-captured datasets. On tomato leaf diseases from the PlantVillage dataset, it consistently improved performance across 1 to 15 shot scenarios, reaching 98.23+-0.33% at 15 shot, closely approaching the 99.98% SOTA benchmark achieved by a Transductive LSTM with attention, while remaining lightweight and mobile-friendly. Under real-world conditions using field images from the Dhan Shomadhan dataset, it maintained robust performance, reaching 69.28+-1.49% at 15-shot and demonstrating strong resilience to complex backgrounds. Notably, it also outperformed the previous SOTA accuracy of 96.0% on six diseases from PlantVillage, achieving 99.72% with only 15-shot learning. With a compact model size of approximately 40 MB and inference complexity of approximately 1.12 GFLOPs, this work establishes a scalable, mobile-ready foundation for precise plant disease diagnostics in data-scarce regions.
- Abstract(参考訳): 植物葉病の正確なタイムリーな同定は、弾力性と持続可能な農業には不可欠であるが、ほとんどのディープラーニングアプローチは、大量の注釈付きデータセットと、データスカースや資源制約のある環境には適さない計算集約的なモデルに依存している。
これらの課題に対処するために、ドメイン適応型MobileNetV2とMobileNetV3モデルを特徴抽出器として組み合わせた軽量で効率的なフレームワークと、ロバストな特徴表現を生成する機能融合技術を用いて、数ショットの学習手法を提案する。
分類タスクにおいて、融合した特徴は、注意機構を備えたBi-LSTM分類器を通し、シーケンシャルな依存関係を捕捉し、最も関連性の高い特徴に焦点を合わせ、ノイズや散在した背景を持つ複雑な実環境においても最適な分類性能を達成する。
提案したフレームワークは,実験室で制御されたデータセットとフィールドキャプチャーされたデータセットの両方を含む,複数の実験装置で評価された。
PlantVillageデータセットのトマト葉病では、1~15ショットのシナリオで一貫してパフォーマンスを向上し、15ショットで98.23+-0.33%に達し、Transductive LSTMによる99.98%のSOTAベンチマークに近づきながら、軽量でモバイルフレンドリーなままであった。
Dhan Shomadhanデータセットのフィールドイメージを使用した実世界の条件下では、堅牢なパフォーマンスを維持し、15ショットで69.28+-1.49%に達し、複雑な背景に対して強いレジリエンスを示した。
また、以前のSOTAの精度も96.0%、植物病の6つの疾患では99.72%、わずか15ショットの学習では99.72%を上回った。
約40MBのコンパクトモデルサイズと約1.12GFLOPの推論複雑性を持つこの研究は、データスカース領域における正確な植物病診断のためのスケーラブルで移動可能な基盤を確立する。
関連論文リスト
- TCLeaf-Net: a transformer-convolution framework with global-local attention for robust in-field lesion-level plant leaf disease detection [13.963787476506292]
Daylily-Leafは1,746枚のRGB画像と7,839個の病変からなる2つの病変レベルのデータセットである。
実地利用に最適化された変圧器・畳み込みハイブリッド検出器TCLeaf-Netを提案する。
論文 参考訳(メタデータ) (2025-12-13T15:03:48Z) - Automated Plant Disease and Pest Detection System Using Hybrid Lightweight CNN-MobileViT Models for Diagnosis of Indigenous Crops [0.0]
農業はエチオピアのティグレイ地域の人口の80%以上を支えている。
インフラ破壊は 専門の作物病診断へのアクセスを制限する
本稿では,新たにキュレートされたサボテンフィグデータセットを中心に,オフラインファースト検出システムを提案する。
論文 参考訳(メタデータ) (2025-12-06T06:24:46Z) - CellPainTR: Generalizable Representation Learning for Cross-Dataset Cell Painting Analysis [51.56484100374058]
本稿では,細胞形態の基本的な表現を学習するためのトランスフォーマーベースのアーキテクチャであるCellPainTRを紹介する。
私たちの研究は、画像ベースのプロファイリングのための真の基盤モデルを作成するための重要なステップであり、より信頼性が高くスケーラブルなクロススタディ生物学的分析を可能にします。
論文 参考訳(メタデータ) (2025-09-02T03:30:07Z) - Mobile-Friendly Deep Learning for Plant Disease Detection: A Lightweight CNN Benchmark Across 101 Classes of 33 Crops [39.58317527488534]
植物病は世界の食料安全保障にとって大きな脅威である。
我々は、33の作物で101の植物病を正確に分類できるモバイルフレンドリーなソリューションを開発した。
論文 参考訳(メタデータ) (2025-08-14T16:43:27Z) - DExNet: Combining Observations of Domain Adapted Critics for Leaf Disease Classification with Limited Data [3.156688657641748]
本研究では,植物病の分類のためのドメイン適応エキスパートネットワーク(DExNet)を提案する。
まず、最先端のCNNベースのアーキテクチャである9つの'批評家'から、機能の埋め込みを'オブザーブレーション'として抽出する。
提案したパイプラインは、PlantVillageデータセットから10種類のトマト葉のイメージに基づいて評価される。
論文 参考訳(メタデータ) (2025-06-22T21:15:54Z) - Design and Implementation of FourCropNet: A CNN-Based System for Efficient Multi-Crop Disease Detection and Management [3.4161054453684705]
本研究では,複数の作物の病原体を検出するための新しいディープラーニングモデルであるFourCropNetを提案する。
FourCropNetは、Grapeの99.7%、Cornの99.5%、組み合わせたデータセットの95.3%の最高精度を達成した。
論文 参考訳(メタデータ) (2025-03-11T12:00:56Z) - SMILE-UHURA Challenge -- Small Vessel Segmentation at Mesoscopic Scale from Ultra-High Resolution 7T Magnetic Resonance Angiograms [60.35639972035727]
公開されている注釈付きデータセットの欠如は、堅牢で機械学習駆動のセグメンテーションアルゴリズムの開発を妨げている。
SMILE-UHURAチャレンジは、7T MRIで取得したTime-of-Flightアンジオグラフィーの注釈付きデータセットを提供することで、公開されている注釈付きデータセットのギャップに対処する。
Diceスコアは、それぞれのデータセットで0.838 $pm$0.066と0.716 $pm$ 0.125まで到達し、平均パフォーマンスは0.804 $pm$ 0.15までになった。
論文 参考訳(メタデータ) (2024-11-14T17:06:00Z) - Recognize Any Regions [55.76437190434433]
RegionSpotは、ローカライゼーション基盤モデルから位置認識ローカライゼーション知識と、ViLモデルからのセマンティック情報を統合する。
オープンワールドオブジェクト認識の実験では、私たちのRereaSpotは、以前の代替よりも大きなパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2023-11-02T16:31:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。